Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ACTUARIA
PROCESOS ESTOCÁSTICOS
Propiedad de Markov
Probabilidades de transición
Existencia
Ejemplos
Se mostraran a continuación una serie de ejemplos particulares de
cadenas de Markov, los cuales servirán posteriormente para ilustrar
otros conceptos y resultados generales de la teoría.
a) Sea Xn= ξn La sucesión {Xn : n>=1} es una cadena de Markov con espacio de
estados {0,1,…}, y con probabilidades de transición pij=P(Xn=j|Xn-
1=i)=P(Xn=j)=aj.
M.F. Eric Víctor Guerrero Piña
enero - junio 2023
LICENCIATURA
ACTUARIA
PROCESOS ESTOCÁSTICOS
c) Sea Xn= ξ1+ ξ2+…+ ξn. La sucesión {Xn : n>=1} es una cadena de
Markov con espacio de estados y matriz
en donde p+q=1.
Cadena de Ehrenfest
Es claro que a partir del estado i la cadena sólo puede pasar al estado
i-1 o al estado i+1 al siguiente momento, de modo que las
probabilidades son pi,i-1=i/N y pi,i+1=(N-i)/N, validas para i=1,2,…N-1.
Cadena de Ramificación
Para cada entero n>=1 defina ξn como el número de nuevos clientes que
se incorporan a la fila durante el periodo n.
Es decir
Cadena de inventarios