Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PROFESOR: ALUMNOS:
ANGEL GARCIA ANDRES AVILES #2013200039
FREDDY MUÑOZ #2013200139
LEONARDO GOMEZ #20132000262
ROSBIL CAMACHO (CONGELADO) #2013200145
CRISTHIAN LOPEZ #2013200224
Se define, entonces:
La matriz de transición P junto con las probabilidades iniciales asociadas a los estados Ej
definen por completo una cadena de Markov. Se suele imaginar una cadena de Markov
como una descripción del comportamiento de transición de un sistema durante intervalos
iguales. Hay casos en donde la longitud del intervalo depende de las características del
sistema, y por consiguiente puede no ser igual. A este caso se le refiere como una cadena
de Markov enclavada.
NOTA: Para que el proceso estocástico del número de líneas
ocupadas sea una cadena de Markov es necesario que la
probabilidad de cada posible número de líneas ocupadas en
cualquier instante de tiempo dependa solamente del número de
líneas ocupadas 2 minutos antes
MATRIZ DE TRANSICIÓN
Al trabajar con cadenas de Markov, a menudo es útil pensar la sucesión de ensayos como
experimentos efectuados en cierto sistema físico, cada resultado dejando a este sistema
en cierto estado. Por ejemplo, consideremos una sucesión de elecciones políticas en cierto
país: el sistema podría tomarse como el país mismo y cada elección lo dejaría en cierto
estado, es decir en el control del partido ganador. Si sólo hay dos partidos políticos fuertes,
llamados A y B, los que por lo regular controlan el gobierno, entonces podemos decir que
el país se encuentra en el estado A o B si el partido A o B ganara la elección. Cada ensayo
(o sea cada elección), coloca al país en uno de los dos estados A o B. Una sucesión de 10
elecciones podría producir resultados tales como los siguientes:
A, B, A, A, B, B, B, A, B, B
La primera elección en la sucesión deja en el poder al partido A, la segunda fue ganada por
el partido B, y así sucesivamente, hasta que la décima elección la gane el partido B.
Supongamos que las probabilidades de que el partido A o B ganen la próxima elección son
determinadas por completo por el partido que está en el poder ahora. Por ejemplo
podríamos tener las probabilidades siguientes: • Si el partido A está en el poder, existe una
probabilidad de ¼ que el partido A ganará la próxima elección y una probabilidad de ¾ de
que el partido B gane la elección siguiente. • Si el partido B está en el poder, hay una
probabilidad de 1/3 de que el partido A gane la elección siguiente y una probabilidad de
2/3 que el partido B permanezca en el poder. En tal caso, la sucesión de elecciones forman
una cadena de Markov, dado que las probabilidades de los dos resultados de cada elección
están determinadas por el resultado de la elección precedente.
También,
En general:
Así:
Y en general:
Entonces:
EJEMPLO:
Con . Determinar .
Así:
Los renglones de P8 tienden a ser idénticos. También, a (8) tiende a ser idéntica con los
renglones de P (8). Es el resultado de las propiedades de las cadenas de Markov a largo
plazo, que implica que las probabilidades absolutas a largo plazo son independientes de a
(0). En este caso, las probabilidades que resultan se llaman probabilidades de estado
estable.
Por lo tanto:
Así, es seguro que el sistema regresa a j si fjj = 1. En este caso, si µjj define al tiempo
promedio de retorno (de recurrencia)
Si fjj = 1, no es seguro que el sistema regrese a Ej, y en consecuencia, µjj = ∞.
Los estados de una cadena de Markov se pueden clasificar con base en la definición del
tiempo de primer retorno como sigue:
Si todos los estados de una cadena de Markov son ergódicos, la cadena es irreducible.
Siempre converge en forma única a una distribución límite cuando n→∞, donde la
distribución límite es independiente de las probabilidades iniciales a(0).
EJEMPLO