Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Aunque cada cliente acaba por llegar al estado 0 o al estado 3, la tienda se interesa en
determinar la probabilidad de que un cliente llegue a ser un mal deudor dado que la cuenta
pertenece al estado de 1 a 30 días de retraso, y de igual forma, si se encuentra en 31 a 60
días de retraso. Para obtener esta información debe resolverse el conjunto de ecuaciones
que se presentó al principio de esta sección para obtener F 13 y F 23. Las siguientes dos
ecuaciones se obtienen por sustitución:
f 13 = p10+ f 03+ p11+ f 13+ p12+ f 23+ p13+ f 33,
Como f 03 = 0 y f 33 = 1, ahora se tienen dos ecuaciones con dos incógnitas, esto es,
f 23 = 0.254.
Ejemplo de juegos
Para ilustrar el uso de probabilidades de absorción en una caminata aleatoria, considere un
ejemplo sobre juegos de azar similar al que se presentó en la sección 16.2, pero ahora
suponga que dos jugadores (A y B), con 2 dólares cada uno, aceptan seguir jugando y
apostar 1 dólar cada vez hasta que uno de ellos quiebre. La probabilidad de que A gane una
apuesta es 3 1, por lo que la probabilidad de que gane B es 3 2. El número de dólares que
tiene el jugador A antes de cada apuesta (0, 1, 2, 3 o 4) proporciona los estados de una
cadena de Markov con la matriz de transición
ESTADO
0
P= 2
ESTADO 0 1 2 3 4
2 1
f 10= f ∞ + f 20
3 3
2 1
f 20= f + f
3 10 3 30
2 1
f 30= f 20 + f 40
3 3
f 40= 0 (puesto que el estado 4 es un estado absorbente).
2 1
f 14= f 04 + f 24
3 3
2 1
f 24= f 14 + f 34
3 3
2 1
f 34= f 24 + f 44
3 3
f 44= 1 (puesto que el estado 0 es un estado absorbente).
De aquí se obtiene
2 1 1 2 1 1 4
f 24 = ( f ) + ( f 24+ ) = + f 23
3 3 24 3 3 3 9 9
De manera que f 24 = 1/5 es la probabilidad de absorción en el estado 4.
Bibliografía
https://es.slideshare.net/eduardoko/cadenas-de-markov-con-estados-absorbentes
http://halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/PEst/tema4pe.pdf
http://dep.fie.umich.mx/~camarena/Cadenas%20de%20Markov.pdf
http://www.dia.fi.upm.es/~ajimenez/Docu_IO/Transparencias/CMTD.pdf
http://dep.fie.umich.mx/~camarena/Cadenas%20de%20Markov.pdf
Conclusión
Los estados Absorbentes son parte del gran rubro de estados conformados por la
cadena de markov , donde en especial este es un estado cadena importante ya
que hay muchos datos visuales donde debemos darnos cuenta si es un estado
absorbente o no, hay que mencionar que a este estado también se le conoce
como estado trampa ya que engaña a los otros estados y pasa desapercibido por
la mayoría además que es muy importante determinar la probabilidad de que el
proceso eventualmente alcance un estado absorbente, ya que no todos alcance el
estado ya que hay que determinar el tiempo para que el proceso sea absorbido.
Este método es muy importante, ya que ha comenzado a usarse en los últimos
años como instrumento de investigaciones de mercadotecnia, para examinar y
pronosticar el comportamiento de los clientes desde el punto de vista de su lealtad
a una marca y de sus formas de cambio a otras marcas, la aplicación de esta
técnica, ya no solo se limita a la mercadotecnia sino que su campo de acción se
ha podido aplicar en diversos campos.
Análisis: