Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ELABORADO:
ING. ANTONIO HERNÁNDEZ
FECHA: SEPTIEMBRE 2019
DEFINICION DE PROCESOS ESTOCASTICOS: Los modelos de probabilidad de
procesos que evolucionan en el tiempo de una manera probabilística se llaman
procesos estocásticos.
Las cadenas de Markov tienen la propiedad particular de que las probabilidades
que describen la forma en que el proceso evolucionará en el futuro dependen sólo
del estado actual en que se encuentra el proceso y, por lo tanto, son
independientes de los eventos que ocurrieron en el pasado. Muchos procesos se
ajustan a esta descripción, por lo que las cadenas de Markov constituyen una
clase de modelo probabilístico de gran importancia.
Los nodos (círculos) representan los dos estados posibles del clima, mientras que
las flechas muestran las transiciones posibles de un día al siguiente (se incluye la
opción de regresar al mismo estado). Cada una de las probabilidades de transición
se escribe a continuación de la flecha correspondiente.
Dado que Dt1+1 tiene una distribución Poisson con media de 1. Entonces,
En el caso de los otros dos renglones de P, tomando en cuenta que el problema
se comporta así,
Otro ejemplo se refiere al juego. Suponga que un jugador tiene 1 dólar y que cada
jugada gana 1 dólar con probabilidad p > 0 o pierde 1 dólar con probabilidad 1 –
p.>0. El juego termina cuando el jugador acumula 3 dólares o cuando quiebra.
Este modelo es una cadena de Markov en la que los estados representan la
fortuna del jugador, esto es, 0, 1, 2 o 3 dólares, con la matriz de transición dada
por:
Dos pasos, n= 2
El costo promedio a largo plazo por unidad de tiempo asociado a una cadena
de Markov. Suponga que se incurre en un costo (u otra función de penalización)
C(Xt) cuando el proceso se encuentra en el estado Xt en el tiempo t, para t = 0, 1,
2, . . . Observe que C(Xt) es una variable aleatoria que toma cualquiera de los
valores C(0), C(l), . . ., C(M) y que la función C(?) es independiente de t. El costo
promedio esperado en el que se incurre a lo largo de los primeros n periodos está
dado por la expresión:
Se llama estado absorbente si p kk = 1, de manera que una vez que la cadena llega
al estado k permanece ahí para siempre. Si k es un estado absorbente y el
proceso comienza en el estado i, la probabilidad de llegar en algún momento a k
se llama probabilidad de absorción al estado k, dado que el sistema comenzó en
el estado i. Esta probabilidad se denota por f ik.
Si existen dos o más estados absorbentes en una cadena de Markov y es evidente
que el proceso será absorbido en uno de estos estados, es deseable encontrar
estas probabilidades de absorción. Dichas probabilidades pueden obtenerse con
sólo resolver un sistema de ecuaciones lineales que considera todas las
posibilidades de la primera transición y después, dada la primera transición,
considera la probabilidad condicional de absorción al estado k. En particular, si el
estado k es un estado absorbente, el conjunto de probabilidades de absorción fik
satisface el sistema de ecuaciones