Está en la página 1de 7

m  


 m 



 !"
# ! 
$

‘ 

× 
  
  
     



‘
    
  
[   [


INTRODUCCION

Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra
un evento depende del evento inmediato anterior. Por consiguiente, las cadenas de este tipo
tienen memoria pues recuerdan el último evento y esto condiciona las posibilidades de los
eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las
series de eventos independientes. Asimismo la cadena de Markov es una herramienta de
análisis de gran utilidad y rigor científico utilizada por economistas, sociólogos, físicos, y otros
investigadores que analicen un proceso dado bajo ciertas circunstancias probabilísticas. En los
negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los
deudores morosos, para planear las necesidades de personal, para el análisis del reemplazo de
equipo, entre otras aplicaciones. Es por ello que en el presente trabajo abordaremos el presente
tema con un ejemplo ilustrativo para su correcta asimilación.

      


[   [


OBJETIVOS

General

Implementar las herramientas de análisis necesarias para la solución del caso: ƠUn Modelo para
el Desplazamiento Poblacionalơ

Específicos

Determinar la probabilidad de que después de tres años una familia del área rural viva
en un área urbana.

Determinar la probabilidad de que después de tres años de iniciada la investigación una


familia viva en el área urbana.

Determinar los porcentajes a largo plazo de que se habite en cada una de las áreas
poblacionales.

      !


[   [


CADENAS DE MARCOV

Propiedad Markoviana

§ea {Xn: n ? 0} un proceso estocástico discreto (es decir, cada Xn es una variable aleatoria
discreta). Diremos que tiene la propiedad de markoviana si se cumple:

P{Xn+1= j / X0= i0 , X1= i1 . . . Xn= in } =

P{Xn+1= j / Xn= in } = pi,j(n)

Probabilidades de Transición

pi,j(n) = la probabilidad de que el proceso, estando en el estado i en el tiempo n, pase al


estado j en el instante siguiente.

Cuando pi,j(n) = pi,j (esto es, no depende de n) se dice que las probabilidades de
transición son estacionarias.

EJEMPLO
Un Modelo Para El Desplazamiento Poblacional

Para efectos de una investigación, en un determinado país, una familia puede clasificarse como
habitante de zona urbana, rural o suburbana. §e ha estimado que durante un año cualquiera, el
15% de todas las familias urbanas se cambian a zona suburbana y el 5% a zona rural. El 6%
de las familias suburbanas pasan a zona urbana y el 4% a zona rural. El 4% de las familias
rurales pasan a zona urbana y el 6% a zona suburbana.

Tendremos la siguiente matriz de transición

      


[   [


Cadenas de Markov

Aplicación de resultados anteriores

Consideremos el ejemplo, y supongamos que al inicio de la investigación, el 35% de la


población vivía en áreas urbanas, el 45% en área suburbana, y el resto en área rural.

a) §i inicialmente una familia vive en un área rural, ¿cuál es la probabilidad de que tres
años después esta familia viva en un área urbana?

R// 0,0967

b) ¿Cuál es la probabilidad de que tres años después de iniciada la investigación una


familia viva en el área urbana?

R// 0,2691

      "


[   [


c) ¿Cuáles son los % a largo plazo de que se habite en cada una de las áreas?

Área Urbana: 0.20765

Área §uburbana: 0.491803

Área Rural: 0.300546

      


[   [


CONCLUSIONES

§e hizo uso de las cadenas de Markov para el análisis y solución del caso ƠUn Modelo
para el Desplazamiento Poblacionalơ debido a que éste presentaba circunstancias
probabilísticas.

§e determinó que existe una probabilidad del 9.67% de que después de tres años una
familia del área rural viva en un área urbana.

También se estableció que se tiene una probabilidad del 26.91% de que después de tres
años de iniciada la investigación una familia viva en el área urbana.

Asimismo los porcentajes a largo plazo de que se habite en cada una de las áreas
poblacionales son las siguientes: área urbana 20.76%, área suburbana 49.18% y área
rural 30.05%.

      #

También podría gustarte