Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TRANSMISIÓN DE DATOS
SESION 9:
Presentación del Docente:
Datos/Observaciones
Utilidad
Datos/Observaciones
Logro de la Sesión:
Al finalizar la sesión, el Estudiante explica el proceso de la Cadena de
Markov, mediante la solución de problemas con posible aplicación en el
despliegue de un Sistema de comunicaciones
Utilidad del tema:
Identificación por los alumnos de la Utilidad del tema a desarrollar:
¿Cuál es la utilidad que Ud. considera que tiene el desarrollo del tema durante la sesión
de clases?
Datos/Observaciones
LAS FUENTES DIGITALES SE SUELEN CLASIFICAR SEGÚN LA RELACIÓN QUE TENGA UN
SÍMBOLO DEL ALFABETO CON LOS QUE LE PRECEDEN DE LA SIGUIENTE MANERA:
Datos/Observaciones
Datos/Observaciones
CADENAS DE MARKOV
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Proceso Estocástico
▪ Es un conjunto o sucesión de variables aleatorias: {X(t)CG }
definidas en un mismo espacio de probabilidad.
▪ Normalmente el índice t representa un tiempo y X(t) el estado
del proceso estocástico en el instante t.
▪ El proceso puede ser de tiempo discreto o continuo si G es
discreto o continuo.
▪ Si el proceso es de tiempo discreto, usamos enteros para
representar el índice: {X1, X2, ...}
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Una Cadena de Markov (CM) es:
• Un proceso estocástico
• Con un número finito de estados (M)
• Con probabilidades de transición estacionarias
• Que tiene la propiedad markoviana
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
REPRESENTACIÓN GRÁFICA DE UN PROCESO DE MARKOV
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Tipos de modelos de Markov:
Procesos de Markov (Modelos semi-markovianos):
Las probabilidades de transición entre estados pueden variar a
medida que transcurren más ciclos
Ejemplo: para modelizar la esperanza de vida, el riesgo de muerte
aumenta con la edad
Cadenas de Markov: Las probabilidades de transición se suponen
constantes a lo largo del tiempo
Ejemplos:
o Comportamiento (sube/baja) del precio de las acciones hoy depende de
lo ocurrido ayer
o Problema de la ruina de un jugador de casino
o Elección de marca: Con qué línea aérea volar a Madrid?
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Este es un ejemplo de cadena de Markov irreductible y ergódica.
Todos los estados son recurrentes y están comunicados entre sí,
formando una sola clase.Hay solución de estado estable (reparto del
mercado a largo plazo, independiente de la situación inicial)
Datos/Observaciones
EJEMPLO 2: LA EVOLUCIÓN CLÍNICA DE LOS PACIENTES CON VÁLVULA CARDIACA
SOMETIDOS A TRATAMIENTO ANTICOAGULANTE
CON
BIEN
SECUELAS
Datos/Observaciones
0.6
0.6
0.2 CON
BIEN
SECUELAS
0.2 0.3
MUERTO
Datos/Observaciones
EJEMPLO 3: EL HÁBITO TABÁQUICO DE
LOS JÓVENES
Datos/Observaciones
Cierre:
Conclusiones Generales
Datos/Observaciones