Está en la página 1de 26

Cadena de Markov

En la teoría de la probabilidad, se conoce como cadena de Márkov a un tipo especial de


proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende del
evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria.
"Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros.
Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de
eventos independientes, como tirar una moneda al aire o un dado.

Reciben su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922), que las
introdujo en 1907.1

Estos modelos muestran una estructura de dependencia simple, pero muy útil en muchas
aplicaciones.

Contenido
[ocultar]

 1 Definición formal
 2 Notación útil
o 2.1 Cadenas homogéneas y no homogéneas
o 2.2 Probabilidades de transición y matriz de transición
o 2.3 Vector de probabilidad invariante
o 2.4 Clases de comunicación
o 2.5 Tiempos de entrada
o 2.6 Recurrencia
o 2.7 Periodicidad
 3 Tipos de cadenas de Markov
o 3.1 Cadenas irreducibles
o 3.2 Cadenas positivo-recurrentes
o 3.3 Cadenas regulares
o 3.4 Cadenas absorbentes
o 3.5 Cadenas de Markov en tiempo continuo
 4 Aplicaciones
o 4.1 Física
o 4.2 Meteorología
o 4.3 Modelos epidemiológicos
o 4.4 Internet
o 4.5 Simulación
o 4.6 Juegos de azar
o 4.7 Economía y Finanzas
o 4.8 Música
 5 Referencias
 6 Bibliografía
 7 Enlaces externos

[editar] Definición formal


En matemáticas, se define como un proceso estocástico discreto que cumple con la
propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su instante actual,
su estado presente resume toda la información relevante para describir en probabilidad su
estado futuro.

Una cadena de Márkov es una secuencia X1, X2, X3,... de variables aleatorias. El rango de
estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el
tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una
función de Xn por sí sola, entonces:

Donde xi es el estado del proceso en el instante i. La identidad mostrada es la propiedad de


Márkov.

[editar] Notación útil


[editar] Cadenas homogéneas y no homogéneas

 Una cadena de Markov se dice homogénea si la probabilidad de ir del estado i al


estado j en un paso no depende del tiempo en el que se encuentra la cadena, esto es:

para todo n y para cualquier


i, j.

Si para alguna pareja de estados y para algún tiempo n la propiedad antes mencionada no se
cumple diremos que la cadena de Markov es no homogénea.

[editar] Probabilidades de transición y matriz de transición

 La probabilidad de ir del estado i al estado j en n unidades de tiempo es

en la probabilidad de transición en un paso se omite el superíndice de modo que queda


 Un hecho importante es que las probabilidades de transición en n pasos satisfacen la
ecuación de Chapman-Kolmogorov, esto es, para cualquier k tal que 0 < k < n se
cumple que

donde E denota el espacio de estados.

 Cuando la cadena de Markov es homogénea, muchas de sus propiedades útiles se


pueden obtener a través de su matriz de transición, definida entrada a entrada como

esto es, la entrada i, j corresponde a la probabilidad de ir del estado i a j en un paso.

Del mismo modo se puede obtener la matriz de transición en n pasos como:

, donde .

[editar] Vector de probabilidad invariante

 Se define la distribución inicial .

 Diremos que un vector de probabilidad (finito o infinito numerable) es invariante


para una cadena de Markov si

donde P denota la matriz de transición de la cadena de Markov. Al vector de probabilidad


invariante también se le llama distribución estacionaria o distribución de equilibrio.

[editar] Clases de comunicación

 Para dos estados i,j en el espacio de estados E, diremos que de i se accede a j (y se


denotará ) si

para algún n,

si y entonces diremos que i comunica con j y se denotará i↔j.

La propiedad "↔" es una relación de equivalencia. Esta relación induce una partición en el
espacio de estados. A estas clases de equivalencia las llamaremos clases de comunicación.
Dado un estado x, denotaremos a su clase de comunicación como C(x).

 Diremos que un subconjunto C del espacio de estados (al que denotaremos E) es


cerrado si ningún estado de E-C puede ser accedido desde un estado de C, es decir,
si para todo x∈C, para todo y∈E-C y para todo natural m>0.

[editar] Tiempos de entrada

Si , definimos el primer tiempo de entrada a C como la variable aleatoria

esto es, denota la primera vez que la cadena entra al conjunto de estados C.

[editar] Recurrencia

En una cadena de Markov con espacio de estados E, si x∈E se define


y diremos que:

 x es estado recurrente si .
 x es transitorio si
 x es absorbente si
 Una clase de comunicación es clase recurrente si todos sus estados son recurrentes.

Sea , si x∈Ediremos que:

 x es cero-recurrente si
 x es positivo-recurrente si

El real μx se interpreta como el tiempo promedio de recurrencia.

[editar] Periodicidad

 El periodo de un estado x∈E se define como:

donde denota el máximo común divisor.

 Si d(x)=1 diremos que x es un estado aperiódico.


 Una cadena de Markov se dice aperiódica si todos sus estados son aperiódicos.

[editar] Tipos de cadenas de Markov


[editar] Cadenas irreducibles

Una cadena de Markov se dice irreducible si se cumple cualquiera de las siguientes


condiciones (equivalentes entre sí):

1. Desde cualquier estado de E se puede acceder a cualquier otro.


2. Todos los estados se comunican entre sí.
3. C(x)=E para algún x∈E.
4. C(x)=E para todo x∈E.
5. El único conjunto cerrado es el total.

La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son ejemplos de


cadenas de Markov irreducibles.

[editar] Cadenas positivo-recurrentes

Una cadena de Markov se dice positivo-recurrente si todos sus estados son positivo-
recurrentes. Si la cadena es además irreducible es posible demostrar que existe un único
vector de probabilidad invariante y está dado por:

[editar] Cadenas regulares

Una cadena de Markov se dice regular (también primitiva o ergódica) si existe alguna
potencia positiva de la matriz de transición cuyas entradas sean todas estrictamente
mayores que cero.

Cuando el espacio de estados E es finito, si P denota la matriz de transición de la cadena se


tiene que:

donde W es una matriz con todos sus renglones iguales a un mismo vector de probabilidad
w, que resulta ser el vector de probabilidad invariante de la cadena. En el caso de cadenas
regulares, éste vector invariante es único.

[editar] Cadenas absorbentes

Una cadena de Markov con espacio de estados finito se dice absorbente si se cumplen las
dos condiciones siguientes:
1. La cadena tiene al menos un estado absorbente.
2. De cualquier estado no absorbente se accede a algún estado absorbente.

Si denotamos como A al conjunto de todos los estados absorbentes y a su complemento


como D, tenemos los siguientes resultados:

 Su matriz de transición siempre se puede llevar a una de la forma

donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz identidad, 0


es la matriz nula y R alguna submatriz.

 , esto es, no importa en donde se encuentre la cadena,


eventualmente terminará en un estado absorbente.

[editar] Cadenas de Markov en tiempo continuo

Si en lugar de considerar una secuencia discreta X1, X2,..., Xi,.. con i indexado en el
conjunto de números naturales, se consideran las variables aleatorias Xt con t que varía en
un intervalo continuo del conjunto de números reales, tendremos una cadena en tiempo
continuo. Para este tipo de cadenas en tiempo continuo la propiedad de Márkov se expresa
de la siguiente manera:

tal que

[editar] Aplicaciones
[editar] Física

Las cadenas de Markov son usadas en muchos problemas de la termodinámica y la física


estadística. Ejemplos importantes se pueden encontrar en la Cadena de Ehrenfest o el
modelo de difusión de Laplace.

[editar] Meteorología

Si consideramos el clima de una región a través de distintos días, es claro que el estado
actual solo depende del último estado y no de toda la historia en sí, de modo que se pueden
usar cadenas de Markov para formular modelos climatológicos básicos.

[editar] Modelos epidemiológicos


Una importante aplicación de las cadenas de Markov se encuentra en el proceso Galton-
Watson. Éste es un proceso de ramificación que se puede usar, entre otras cosas, para
modelar el desarrollo de una epidemia (véase modelaje matemático de epidemias).

[editar] Internet

El pagerank de una página web (usado por Google en sus motores de búsqueda) se define a
través de una cadena de Markov, donde la posición que tendrá una página en el buscador
será determinada por su peso en la distribución estacionaria de la cadena.

[editar] Simulación

Las cadenas de Markov son utilizadas para proveer una solución analítica a ciertos
problemas de simulación tales como el Modelo M/M/1.

[editar] Juegos de azar

Son muchos los juegos de azar que se pueden modelar a través de una cadena de Markov.
El modelo de la ruina del jugador, que establece la probabilidad de que una persona que
apuesta en un juego de azar finalmente termine sin dinero, es una de las aplicaciones de las
cadenas de Markov en este rubro.

[editar] Economía y Finanzas

Las cadenas de Markov se pueden utilizar en modelos simples de valuación de opciones


para determinar cuándo existe oportunidad de arbitraje, así como en el modelo de colapsos
de una bolsa de valores o para determinar la volatilidad de precios. En los negocios, las
cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores
morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

[editar] Música

Diversos algoritmos de composición musical usan cadenas de Markov, por ejemplo el


software Csound o Max

[editar] Referencias
1. ↑ Basharin, Gely P.; Langville, Amy N.; Naumov, Valeriy A. (2004). «The Life and
Work of A. A. Markov» (en inglés). Linear Algebra and its Applications
386: pp. 3-26. Consultado el 31 de marzo de 2010.

[editar] Bibliografía
 A.A. Markov. "Rasprostranenie zakona bol'shih chisel na velichiny, zavisyaschie
drug ot druga". Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom
universitete, 2-ya seriya, tom 15, pp. 135–156, 1906.
 A.A. Markov. "Extension of the limit theorems of probability theory to a sum of
variables connected in a chain". reprinted in Appendix B of: R. Howard. Dynamic
Probabilistic Systems, volume 1: Markov Chains. John Wiley and Sons, 1971.
 Classical Text in Translation: A. A. Markov, An Example of Statistical
Investigation of the Text Eugene Onegin Concerning the Connection of Samples in
Chains, trans. David Link. Science in Context 19.4 (2006): 591–600. Online:
http://journals.cambridge.org/production/action/cjoGetFulltext?fulltextid=637500
 Leo Breiman. Probability. Original edition published by Addison-Wesley, 1968;
reprinted by Society for Industrial and Applied Mathematics, 1992. ISBN 0-89871-
296-3. (See Chapter 7.)
 J.L. Doob. Stochastic Processes. New York: John Wiley and Sons, 1953. ISBN 0-
471-52369-0.
 S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability. London:
Springer-Verlag, 1993. ISBN 0-387-19832-6. online:
https://netfiles.uiuc.edu/meyn/www/spm_files/book.html . Second edition to appear,
Cambridge University Press, 2009.
 S. P. Meyn. Control Techniques for Complex Networks. Cambridge University
Press, 2007. ISBN 978-0-521-88441-9. Appendix contains abridged Meyn &
Tweedie. online: https://netfiles.uiuc.edu/meyn/www/spm_files/CTCN/CTCN.html
 Booth, Taylor L. (1967). Sequential Machines and Automata Theory (1st edición).
New York: John Wiley and Sons, Inc.. Library of Congress Card Catalog Number 67-25924.
Extensive, wide-ranging book meant for specialists, written for both theoretical
computer scientists as well as electrical engineers. With detailed explanations of
state minimization techniques, FSMs, Turing machines, Markov processes, and
undecidability. Excellent treatment of Markov processes pp. 449ff. Discusses Z-
transforms, D transforms in their context.
 Kemeny, John G.; Hazleton Mirkil, J. Laurie Snell, Gerald L. Thompson (1959).
Finite Mathematical Structures (1st edición). Englewood Cliffs, N.J.: Prentice-Hall,
Inc.. Library of Congress Card Catalog Number 59-12841. Classical text. cf Chapter 6 Finite
Markov Chains pp. 384ff.
 E. Nummelin. "General irreducible Markov chains and non-negative operators".
Cambridge University Press, 1984, 2004. ISBN 0-521-60494-X

[editar] Enlaces externo


Cadenas Markov

Índice

1. Introducción

2. Cadenas de Markov

3. Ecuaciones de Chapman-Kolmogorov

4. Clasificación de los estados en una cadena de Markov

5. Tiempos de primera pasada

6. Estados Absorbentes

7. Cadenas de Markov en tiempo continuo

8. Algunas v. a. importantes

9. Probabilidades de estado estable

10. Ejemplos explicativos


Introducción

Las cadenas de Markov se incluyen dentro de los denominados procesos


estocásticos. Dichos estudian el comportamiento de variables aleatorias a lo largo del
tiempo X(t,w). Se definen como una colección de variables aleatorias {X(t,w), t  I},
donde X (t,w) puede representar por ejemplo los niveles de inventario al final de la semana
t. El interés de los procesos estocásticos es describir el comportamiento de un sistema e
operación durante algunos periodos.

Los procesos estocásticos se pueden clasificar atendiendo a dos


aspectos: si el espacio de estados posibles de la variable aleatoria contiene
valores discretos o continuos y de si los valores del tiempo son discretos o
continuos.

Las cadenas de Markov es un proceso estocástico en el que los valores


del tiempo son discretos y los estados posibles de la variable aleatoria
contiene valores discretos, es decir, es una cadena estocástica de tiempo
discreto.

Las cadenas de Markov, se clasifican, además, dentro de los procesos estocásticos


de Markov, que son aquellos en el que el estado futuro de un proceso es independiente de
los estados pasados y solamente depende del estado presente. Por lo tanto las
probabilidades de transición entre los estados para los tiempos k-1 y k solamente depende
de los estados que la variable adquiere dichos tiempos.

INDICE

Cadenas de Markov

Las cadenas de Markov están constituidas por un conjunto de valores {Xn , n


:0,1,2...} que cumplen la probabilidad de alcanzar cualquier estado j de la variable depende
exclusivamente del estado i alcanzado en el instante de tiempo anterior.
P[Xn+1= j / Xn = i, Xn-1 = i1,..., X0=in]=P[Xn+1=j / Xn=i]  i,j

Se define para cada par de estados (i, j) que se alcanzan en dos pasos consecutivos
de n y n+1 una probabilidad condicional denominada probabilidad de transición pij.

P[X+1=j / Xn=i] = pij

Las probabilidades de transición de un paso son estacionarias, es decir, que no


cambian con el tiempo.

Si pij no depende del instante n se dice que la cadena de Markov es homogénea. Las
probabilidades de transición estructuradas en forma matricial da lugar a lo que se denomina
matriz de transición. Dicha matriz relaciona los estados de la variable en dos pasos
consecutivos y n+1 a través de sus probabilidades de transición.

Periodo n+1
Estado 1 ... Estado M

Estado 1 p11 p1* p1M

.... P*1 p** p*M


Periodo n
Estado M pM 1 pM* pMM

Una probabilidad de transición pij ^(n) de n pasos


entre los estados i y j indica la probabilidad de que partiendo del estado i en pasos se llegue
al estado j.

INDICE
Ecuaciones de Chapman-Kolmogorov

Estas ecuaciones proporcionan un método para determinar las probabilidades de que


un proceso del estado i notada por pij ^(n).

pij ^(n) = k=0..K pik ^(m) pkj ^(-m) ;  i,j,n; 0<m n

Cada sumando representa la probabilidad de que partiendo del estado i se llegue al


estado k transcurridos m períodos y posteriormente desde el estado k se llegue al estado j en
n-m períodos.

INDICE

Clasificación de los estados en una cadena de Markov

Las probabilidades de transición asociadas a los estados juegan un papel importante


en el estudio de las cadenas de Markov. Para describir con mas detalles las propiedades de
una cadena de Markov es necesario presentar algunos conceptos y definiciones que se
refieren a estos estados.

U estado j es accesible desde el estado i si para algún n se tiene que pij ^(n) >0.

Una cadena de Markov se puede dividir en clases. Una clase está formada por todos
los estados que son accesibles entre sí .

Considerando las probabilidades fii de que el proceso regrese al estado i comenzando en el


estado i se puede clasificar los estados en recurrente sí fii =, transitorio sí fii <1y absorbente
sí pii =1.

En una cadena de Markov finita e irreducible todos los estados de dicha cadena so
recurrentes.
El período de u estado i es el número T de períodos para el cual se cumple que pij ^(n) =0,
siendo los valores distintos de T, 2T, 3T,.. y T es el valor más elevado que cumple esa
propiedad.

Un estado es apériodico si la variable aleatoria puede encontrarse en el mismo estado en


dos períodos consecutivos.

Un estado i es recurrente positivo si comenzando en el estado i el tiempo esperado para que


el proceso regrese al estado i es finito.

Un estado se denomina esgórico si es recurrente positivo y además aperiódico. Una cadena


es ergórica si todos sus estados son esgóricos.

INDICE

Tiempos de primera pasada.

Es importante el nº de transiciones de que hace el proceso al ir del estado i al j por


primera vez; a esto se llama “tiempo de 1ª pasada”. ”Tiempo de recurrencia” será una
particularización de lo anterior para i=j (nº de transiciones hasta volver al estado inicial i).

En general los tiempos de 1ª pasada son variables aleatorias, donde las


distribuciones de probabilidad dependen de las probabilidades de transición del proceso.
Éstas probabilidades satisfacen lo siguiente:

fij(1)=pij(1)=pij

fij(1)= pik fkj(1)

kj

fij(n)= pik fkj(n-1)


kj

La última suma puede resultar menor que 1, lo que significa que un proceso que
comienza en i, puede nunca alcanzar el estado j. Es sencillo calcular el tiempo de primera
pasada de i a j; siendo ij esta esperanza:

  si  fij(n)1

ij = n=1

 

 n fij(n)=1 si  fij(n)=1

 n=1 n=1

ij satisface de manera única, la ecuación: ij =1+ pik kj

kj

que reconoce que la 1ª transición puede ser al estado j o a algún otro estado k.

Para el caso de ii (con j=i)es el nº esperado de transiciones para que el proceso regrese al
estado i(“tiempo esperado de recurrencia”).Éstos se calculan de inmediato de la forma:

ii =----- siendo i las probabilidades de estado estable.

i

INDICE
Estados Absorbentes.

Un estado se llama absorbente si pik =1, es decir, si una vez que el


estado llega a k, permanece ahí para siempre. Si k es un estado absorbente y
el proceso comienza en i, la probabilidad de llegar a k se llama probabilidad
de absorción de k (fik ). Si se tienen 2 o más estados absorbentes, el proceso
será absorbido por uno de éstos. Para saber cual, hay que resolver el sistema
de ecuaciones:

fik= pij fjk para i=0,1,…,M

j=0

Esto es importante en las “caminatas aleatorias”: cadenas de Markov en las que si el


sistema se encuentra en el estado i, entonces, en una sola transición, o permanece en i, o se
mueve a uno de los 2 estados inmediatamente adyacentes a i.

INDICE

Cadenas de Markov en tiempo continuo


Se etiquetan los estados posibles del sistema 0,1,…,M. Se comienza en 0, y t0. Sea
la v.a.X(t´) el estado del sistema en t´. Tomará un valor en 0t´<t1 , después tomará otro
valor en t1t´<t2,…

Es interesante conocer el estado del proceso en t´=s+t(t unidades en el futuro). Será


sencillo conocerlo si el proceso tiene la propiedad markoviana:

PX(s+t)=j/X(s)=i y X(r)=x(r)= PX(s+t)=j/X(s)=i i,j y r0, s>r y t>0.

PX(s+t)=j/X(s)=i es una probabilidad de transición. Si es independiente de s, se llamará


probabilidad de transición estacionaria.

Un proceso estocástico de tiempo continuo X(t); t0 es una cadena de Markov de


tiempo continuo si tiene la propiedad markoviana.

INDICE

Algunas v. a. importantes:

*La distribución de probabilidad del tiempo que falta para que el proceso haga una
transición fuera de un estado dado es siempre la misma(independientemente del tiempo que
el proceso haya pasado en ese estado), es decir:no tiene memoria. La única distribución en
TC que cumple esto es la distribución exponencial:

PTit=1-e-qt para t0 (parámetro q, media 1/q).

Por tanto, describiremos la cadena de Markov:

-La v.a. Ti tiene una distribución exponencial con media 1/q.

-Al salir de un estado i, se pasa a otro j, con probabilidad pij que cumple que pij=0

para toda i, y la suma de todas las pij es 1.

-El siguiente estado que se visita tras i, es independiente del tiempo transcurrido
en i.

Las intensidades de transición(probabilidades de transición, pero en TC) :

d 1 pii(t)

qi=   pii(0)=lim , para i=0,1,2,…,M,

dt t0 t

d 1 pij(t)

qi=   pij(0)=lim  = qi pij , para toda ji

dt t0 t

donde pij es la función de probabilidad de transición de TC, qi y qij son las tasas de
transición(qi= qij ).

ij

INDICE

Probabilidades de estado estable:

La función de probabilidad de transición de TC satisface las ecuaciones de


Chapman-Kolmogorov, luego para cualequiera estados i,j y números t y s(0s<t):
M

pij= pik(s)pkj(t-s) para i=0,1,…,M

k=1

Se dice que un par de estados i,j se comunican si existen tiempos t1, t2 tales que
pij(t1)>0 y pij(t2)>0. Todos los estados que se comunican forman una clase. Si todos los
estados en una cadena forman una clase, entonces la cadena será irreducible, por lo que:

pij(t)>0, para todo t>0 y todos los estados i,j , y más aún:

lim pij(t)=j llamadas probabilidades de estado estable(o estacionarias).

t

Las probabilidades estacionarias satisfacen: M

j qj= i qij para j=0,1,…,M y  j=0

ij j=0

(éstas ecuaciones se suelen llamar de balance).

INDICE
Concepto

Un estado ? i ? s absorbente, la probabilidad de permanecer en ese estado es igual a 1. Es


decir, cuando el sistema cae en el estado ? i ? no vuelve a salir de él. Es un caso especial de
conjunto cerrado en que el conjunto contiene sólo el estado ? i ?.

Ejercicio

La empresa jurídica Harold Vega se clasifican a los empleados en subalternos, superiores y


socios; el 10% de los subalternos ascienden a superiores y a un 10% se les pide que
abandone la empresa, durante un año cualquiera 5% asciende a socio y a 13% se les pide
que renuncie. Los abogados subalternos deben ascender a superiores para llegar a ser
socios, los abogados que no se desempeñan un buen nivel no descienden de nivel.

a) a) Forme la matriz de transición con esos datos

b) b) Determine si la matriz de transición es regular, absorbente o ninguna de las dos.

c) c) Cuál es la probabilidad de que un abogado subalterno llegue a ser socio

d) d) Cuánto tiempo debería esperar permanecer en su categoría un abogado subalterno recién


contratado.

e) e) Cuánto tiempo debería esperar permanecer en la empresa un abogado subalterno recién


contratado.

f) f) Cuál es la probabilidad de que un superior se convierta en socio

Solución

a) a)

b) La matriz es absorbente ya que en los estados de Socio y Despedido son absorbentes.

Para responder a las preguntas c) a f) se necesitan llevar a cabo una serie de cálculos. En
matrices absorbentes, para determinar los tiempos medios en los cuales se permanecerá en
un estado determinado se le debe restar una matriz identidad de mismo tamaño, la matriz
que contiene a los estados no absorbentes (representado con el color más claro) y luego se
debe la matriz inversa de la matriz resultante de la resta.

Para hallar probabilidades de permanencia en un determinado estado se debe multiplicar la


matriz (inversa de la resta de una matriz identidad menos la matriz de estados no
absorbentes) por la matriz de estados absorbentes (representado por el tono de rojo medio)

a) c) La probabilidad es 0,14

b) d) 5 años

c) e) 5+2,78 =7,78 años

d) f) La probabilidad es 0,28

b)
Fuente: Investigaciòn de Operaciones, Hamdy A. Taha, 2004
Cadenas de Markov
Serie de eventos en el cuales la probabilidad de que ocurriria algo entre ellos depende del
evento inmediato anterior se representan por diagramas de estado o por una matriz
transacción Aplicaciones: análisis de compra, de compradores, pronostico de concesión a
deudores morosos planeación de personales de necesidad.

Ejemplo

Existe un 75% de posibilidades de que el día siguiente funcione y un 25% de que no


funcione , pero si no esta funcionando hay un 75% de posibilidades de que tampoco
funcione al día siguiente y solo un 25% de que si lo haga para comenzar el análisis se debe
de conocer el estado actual supóngase que esta comenzando y que hay un 75% de
posibilidades de que este funcionando y un 25% de que no este funcionando ,Cual es la
probabilidad de estar funcionando el primero y segundo día.

Inicio
P (f)= .75
P (nf) =.25

Ejercicio

Hace mucho tiempo en una galaxia lejana existió un clima que dependía solo del clima del
día anterior. por ejemplo la probabilidad de que lloviera hoy dependería solo de lo sucedido
ayer , existen solo 3 tipos de clima despejado, lluvia y nieven enseguida se presenta la
matriz de transición diaria para estos tipos de clima.

1. Calcule las probabilidades de estado para pasado mañana siendo que llovió hoy.
2. Calcule las probabilidades de estado para pasado mañana si hay un 30% de probabilidades
de que hoy este despejado y un 50% de que haya lluvia.

Procedimiento para calcular la proporción de estados no absorbentes que


terminaron en estados absorbentesMenú

1. Eliminar los renglones correspondientes, a los estados absorbentes originales.


2. Dividir la matriz restante en estados absorbentes y no absorbentes, denominar "g "a la
parte de la matriz bajo estados absorbentes y "h" a la parte de la matriz bajo estados no
absorbentes.
3. Calcular la matriz fundamental "Q" que es igual a Q =(I-H)-1 , donde I es igual a la matriz
original y el exponente -1 , se refiere al inverso de la matriz.
4. Calcular la matriz de posiciones R =QG.

Ejemplo

Una empresa de abogados emplea 3 categorías de empleados: principiantes, con


experiencia y socios como se muestra en la matriz de transición.

1. Determine la probabilidad de que un abogado principiante, recién contratado deje la


empresa antes de ser socio.
2. Cual es la probabilidad de que un abogado principiante salga siendo socio.
Conclusión:

 50% de los principiantes sale siendo socio.


 50% da los principiantes sale sin ser socio.

De los abogados con experiencia:

 33% sale sin ser socio.


 66% sale siendo socio.

De los socios:

 100% sale siendo socio

Ejercicios Cadenas de MarkovMenú

El controlador de la Ace Widgets analizo las cuentas por cobrar de la compañía y desarrollo
la siguiente matriz de transición:
De(mes 1)

Las cuentas A tienen de 0 a 30 días y actualmente dan un total de $100 000 .Las cuentas B
tienen de 31 a 90 días y dan un total de $50 000 en este momento. ¿Que concesión debe dar
el controlador para cuentas morosas?
El departamento de comercializacion de la marca X hizo una investigación y encontro que ,
si un cliente compra su marca , existe un 70% de posibilidades de que la compre de nuevo
la proxima vez. Por otro lado, si la utima compra fue de otra marca , entonces se escoge la
marca la marca x solo el 20% del iempo.Cual es el porcentaje de mercado que puede
pronosticarse a la larga para la marca X?

La alpha corp ,. Al considerer sus estrategias de mercado , observa que sus propios clientes
son bastante leales: 85% compran de nuevo su producto .Sin embargo , solo 10% de los
clientes de la competencia se aventuran a tratar con Alpha .el departamento de publicidad
piensa que la lealtad de los clientes puede elevarse al 90% con una campaña especial
dirigida a los clientes de la firma .De otra manera podrá estructurarse los anuncios para
comparar Alpha con sus competidores .Con esto puede esperarse elevar el cambio de marca
de 10% al 20% .En cualquier caso lña compaña de publicidad costaria $100 000y
redundaria una contribución de $6 000 por cada punto ganado en el porcentaje del mercado.

1. Antes de cualquier camopaña publicitaria ¿Cuál el porcentaje de mercado a favor de Alpha


Corporation?
2. ¿Cuál es la estrategia de publicidad que daria el mayor aumento en el pocentaje de
mercado?
3. ¿Es provechosa la mejor campaña de publicidad?

Un gerente de credito estima que el 95% de aquellos que pagan sus cuentas a tiempo de un
mes tambien lo haran el siguiente mes.sin embargo, de aquellos que se tardan solo la midad
pagaran a tiempo la proxima vez.

1. si una persona paga a tiempo ,¿Cuál es el la probabilidad de que pagara a tiempo durante
seis meses desde ahora?
2. En promedio ¿Cuál es la proporcion de cuentas pagadas a tiempo y que proporcion se
pagan tarde?

Se esta considerando comprar dos copiadoras de oficina . son similares en todos los
aspectos excepto en el control de claro-oscuro que opera en forma automatica .en la
maquina A existe una posibilidad del 95% de que el control permanezca ajustado todo el
dia, si esta ajustado en la mañana.Pero si no esta ajustado , hay un 10% de posibilidades de
que permanezca asi.Para la maquina B , las cantidades equivalentes de que permanezca asi
.Para la maquina B, la cantidades equivalentes son 90% y el 5%, respectivamente. Si el
costo es el mismo ¿Qué maquina debe comprarse?

Fin de los apuntes correspondientes a la 4ta Unidad: Cadenas de Markov. Ir Arriba

Última Actualización: Martes 13 de Septiembre 2005 | Navegadores Recomendados: Opera y


Mozilla Firefox
Comentarios y Sugerencias: Maestra Sylvia De Reza De La Cruz | Webmaster | Arriba

También podría gustarte