Está en la página 1de 2

MODELOS PROBABILÍSTICOS

2018 – 1

Módulo: Introducción a los Procesos Estocásticos Profesor: Javier Riascos O.

TAREA
PROBABILIDAD CONDICIONAL
CADENAS DE MARKOV DE TIEMPO DISCRETO

Probabilidad condicional, Teorema de probabilidad total

1. (Ejercicio 33, Capítulo 1, Blanco) Un estudiante de la Maestría en Modelado y Simulación tiene


que presentar el mismo día un examen de Modelos Probabilísticos y uno de Optimización. Sean:
𝐴 ≔ “El estudiante reprueba el examen de Modelos Probabilísticos”
𝐵 ≔ “El estudiante reprueba el examen de Optimización”
Si 𝑃(𝐴) = 0.4, 𝑃(𝐵) = 0.3 y 𝑃(𝐴 ∩ 𝐵) = 0.2. ¿A qué es igual la probabilidad de que el estudiante
apruebe el examen de Optimización dado que aprobó el de Modelos Probabilísticos?, ¿a qué es
igual la probabilidad que el estudiante apruebe el examen de Modelos dado que reprobó el de
Optimización?.

2. (Ejercicio 37, Capítulo 1, Blanco) El 5% de las personas de una población sufren de tensión arterial
alta. De las personas con tensión arterial alta se tiene que el 75% son consumidores asiduos de
bebidas alcohólicas, mientras que sólo el 50% de las personas sin tensión arterial alta consumen
frecuentemente bebidas alcohólicas. De las personas que consumen asiduamente bebidas
alcohólicas, ¿cuál es el porcentaje con tensión arterial alta?.

Cadenas de Markov de Tiempo Discreto

3. Tres bolas blancas y tres bolas negras están distribuidas en dos urnas cada una conteniendo tres
bolas. Suponga que el sistema está en el estado 𝑖, 𝑖 = 0, 1, 2, 3, si la primera urna contiene 𝑖 bolas
blancas. En cada paso, se saca una bola de cada urna y se coloca la bola extraída de la primera urna
a la segunda, y a la inversa con la bola de la segunda urna. Sea 𝑋𝑛 el estado del sistema después del
𝑛-ésimo paso. Explique por qué {𝑋𝑛 , 𝑛 = 0, 1, 2, . . . } es una Cadena de Markov de Tiempo Discreto
(CMTD) y calcule su matriz de probabilidades de transición.

4. Suponga que si llueve o no llueve hoy depende del clima previo hasta tres días antes. Muestre
cómo este sistema puede ser analizado usando CMTD. ¿Cuántos estados son necesarios?.

5. Una cadena de Markov {𝑋𝑛 , 𝑛 ≥ 0} con estados 0, 1, 2, tiene la matriz de probabilidades de


transición:
1 1 1
2 3 6
1 2
[0 3 3
]
1 1
0 2 2
Si 𝑃(𝑋0 = 0) = 𝑃(𝑋0 = 1) = 1/4, encuentre 𝐸[𝑋3 ], el valor esperado del estado del proceso en el
paso 𝑛 = 3. (Recuerde que el valor esperado 𝐸[𝑋] de una variable aleatoria discreta se define
como: 𝐸[𝑋] = ∑𝑖 𝑥𝑖 𝑃(𝑋 = 𝑥𝑖 ) donde 𝑥𝑖 es cada uno de los valores que puede tomar la variable
aleatoria.)

6. Del ejemplo 4.3 del libro de Ross:


a) Gary está actualmente en un mood “cheerful”. ¿Cuál es la probabilidad de que no esté en un
mood “glum” en cualquiera de los siguientes tres días?.
b) Gary estuvo durante los cuatro días previos en un mood “glum”. Dado que no se ha sentido
“cheerful” durante una semana, ¿cuál es la probabilidad de que se sienta “glum” hoy?.

7. Especifique las clases de las siguientes cadenas de Markov y determine si son transitorias o
recurrentes:
1
2
0 12 0 0 3 3
0 0 0
4 4
1
0 2 2 1 0 0 0 1 1 1 1
0 0 1 1
0 0 0 1
4 2 4
2 2
0 0 0
1 1 1 1
1 = [2 0 2] 2 = [1 1 ] 3 = 2 0 2 0 0 4 = 0 0 1 0 0
1 1 2 2
0 0 1 1
2 2
0 0 0 1 0 0 0 0 2 2 0 0 13 23 0
1
[0 0 0 2 2 ]
1 [1 0 0 0 0]
Verifique su respuesta utilizando el comando summary del paquete markovchain en R.

8. Se realizan varios ensayos de una actividad consecutivamente. Si los dos últimos ensayos fueron
exitosos, entonces el siguiente ensayo es exitoso con probabilidad 0.8; en cualquier otro caso, el
siguiente ensayo es exitoso con probabilidad 0.5. En el largo plazo, ¿cuál es la proporción de
ensayos que son exitosos?.

9. (Valor 2 puntos) Una universidad tiene 𝑁 profesores donde 𝑁 es un número muy grande. Cada
profesor tiene una de tres posibles clasificaciones de trabajo cada semestre: “investigación”,
“docencia”, “extensión” y cambia entre clasificaciones independientemente de acuerdo a una
CMTD con probabilidades de transición:

0.7 0.2 0.1


[0.2 0.6 0.2]
0.1 0.4 0.5

Con el paquete markovchain implemente esta cadena de Markov y calcule:


a) La matriz de transición de paso 2, 3, 10 y 20.
b) El estado de la cadena (vector de probabilidades) al cabo de 2, 3, 10 y 20 semestres, en los
tres casos en que un profesor en su primer semestre realiza: (i) investigación (ii) docencia ó
(iii) extensión.
c) Con el comando rmarkovchain simule el estado de la cadena, hasta el semestre 30, para
el caso en que un profesor empieza como investigador.
d) A partir de esta simulación y utilizando el comando markovchainFit, encuentre:
(i) el modelo de Markov (matriz de transición) que mejor se ajusta a la serie de datos, (ii) el
error estándar de las probabilidades de transición con el comando standardError, (iii) el
error de cada probabilidad de transición, definido como 𝑝𝑖𝑗 − 𝑝̂ 𝑖𝑗 , donde 𝑝𝑖𝑗 es la
probabilidad real y 𝑝̂ 𝑖𝑗 su estimación, de pasar de 𝑖 a 𝑗.