Está en la página 1de 48

SISTEMA DE

TRANSMISIÓN DE DATOS
SESION 9:
Presentación del Docente:

JOSE EDUARDO TORRES VEGA


Coronel EP ( R )
Diplomado en Ciencia y Tecnología
Ingeniero Electrónico CIP
Maestro en Administración
PADE-ESAN en Logística
Diplomado en Seguridad y Salud Ocupacional
Docente Universitario a nivel pre grado y post grado
Consultoría y Asesoría en el Desarrollo de Servicios de
Telecomunicaciones y Telemática, Temas de Seguridad Integral
Elaboración de Estudio Teórico de Radiaciones No Ionizantes
Inicio

¿Quién de Ustedes, conoce que es la Cadena de


Markov?

¿Quién de Ustedes, puede definir que es un proceso


estocastico?

Datos/Observaciones
Utilidad

¿Qué Estudiante puede explicar el significado de “Proceso con


Memoria”?

¿Qué Estudiante puede explicar el significado de “Proceso sin


Memoria”

Presentación del Tema:

Definición y empleo de la Cadena de Markov

Datos/Observaciones
Logro de la Sesión:
Al finalizar la sesión, el Estudiante explica el proceso de la Cadena de
Markov, mediante la solución de problemas con posible aplicación en el
despliegue de un Sistema de comunicaciones
Utilidad del tema:
Identificación por los alumnos de la Utilidad del tema a desarrollar:
¿Cuál es la utilidad que Ud. considera que tiene el desarrollo del tema durante la sesión
de clases?

Exposición por el Docente, de la Utilidad del tema:


El estudiante emplea los procesos de la Cadena de Markov en eventos cuya
probabilidad de que ocurra depende solamente del evento inmediatamente
anterior
Datos/Observaciones
FUENTES DISCRETAS CON MEMORIA

Datos/Observaciones
LAS FUENTES DIGITALES SE SUELEN CLASIFICAR SEGÚN LA RELACIÓN QUE TENGA UN
SÍMBOLO DEL ALFABETO CON LOS QUE LE PRECEDEN DE LA SIGUIENTE MANERA:

▪ FUENTES SIN MEMORIA:

LOS SÍMBOLOS SON ESTADÍSTICAMENTE INDEPENDIENTES ENTRE SÍ. DE ESTA MANERA,


LOS SÍMBOLOS QUE HAYAN APARECIDO HASTA EL MOMENTO NO VAN A CONDICIONAR
AL SÍMBOLO PRESENTE NI A POSTERIORES.

▪ FUENTES CON MEMORIA:

LA APARICIÓN DE LOS SÍMBOLOS NO ES ESTADÍSTICAMENTE INDEPENDIENTE. ES DECIR,


SI HAN APARECIDO M–1 SÍMBOLOS, EL SÍMBOLO M-ÉSIMO ESTÁ CONDICIONADO POR
LOS ANTERIORES

Datos/Observaciones
Datos/Observaciones
CADENAS DE MARKOV

Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Proceso Estocástico
▪ Es un conjunto o sucesión de variables aleatorias: {X(t)CG }
definidas en un mismo espacio de probabilidad.
▪ Normalmente el índice t representa un tiempo y X(t) el estado
del proceso estocástico en el instante t.
▪ El proceso puede ser de tiempo discreto o continuo si G es
discreto o continuo.
▪ Si el proceso es de tiempo discreto, usamos enteros para
representar el índice: {X1, X2, ...}

Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Una Cadena de Markov (CM) es:
• Un proceso estocástico
• Con un número finito de estados (M)
• Con probabilidades de transición estacionarias
• Que tiene la propiedad markoviana

ELEMENTOS DE UNA CADENA DE MARKOV

▪ Un conjunto finito de M estados, exhaustivos y mutuamente


excluyentes (ejemplo: estados de la enfermedad)
▪ Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para
examinar las transiciones entre estados (ejemplo, un mes)
▪ Probabilidades de transición entre estados, en un ciclo (matriz P)
▪ Distribución inicial del sistema entre los M estados posibles

Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
REPRESENTACIÓN GRÁFICA DE UN PROCESO DE MARKOV

UN PROCESO DE MARKOV PUEDE REPRESENTARSE GRÁFICAMENTE SI SE CONOCEN LOS


M ESTADOS POSIBLES DEL SISTEMA Y LAS PROBABILIDADES DE TRANSICIÓN ASOCIADA A
ELLOS

Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Tipos de modelos de Markov:
Procesos de Markov (Modelos semi-markovianos):
Las probabilidades de transición entre estados pueden variar a
medida que transcurren más ciclos
Ejemplo: para modelizar la esperanza de vida, el riesgo de muerte
aumenta con la edad
Cadenas de Markov: Las probabilidades de transición se suponen
constantes a lo largo del tiempo
Ejemplos:
o Comportamiento (sube/baja) del precio de las acciones hoy depende de
lo ocurrido ayer
o Problema de la ruina de un jugador de casino
o Elección de marca: Con qué línea aérea volar a Madrid?

Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Este es un ejemplo de cadena de Markov irreductible y ergódica.
Todos los estados son recurrentes y están comunicados entre sí,
formando una sola clase.Hay solución de estado estable (reparto del
mercado a largo plazo, independiente de la situación inicial)

Reparto del mercado después 1 mes.... .P1= [0.3350 0.2540 0.4110]


de n ciclos = P0*Pn 2 meses .... p2 =[ 0.3595 0.2911 0.3494]
6 meses .... p6 =[ 0.4030 0.3543 0.2427]
1 año ....... p12 = [ 0.4150 0.3704 0.2146]
2 años ...... p24 =[ 0.4165 0.3722 0.2113]
3 años ....... p36 =[ 0.4165 0.3722 0.21131]

Datos/Observaciones
EJEMPLO 2: LA EVOLUCIÓN CLÍNICA DE LOS PACIENTES CON VÁLVULA CARDIACA
SOMETIDOS A TRATAMIENTO ANTICOAGULANTE

CON
BIEN
SECUELAS

3 estados (1 absorbente, 2 transitorios)


Ciclo=mes
MUERTO Utilidades = Nivel salud
Distribución inicial de la cohorte
(N=10.000): todos bien

Datos/Observaciones
0.6
0.6

0.2 CON
BIEN
SECUELAS

0.2 0.3

MUERTO

3 estados (1 absorbente, 2 transitorios)


Ciclo=mes
0.5 Utilidades = Nivel salud
Distribución inicial de la cohorte
(N=10.000): todos bien

Datos/Observaciones
EJEMPLO 3: EL HÁBITO TABÁQUICO DE
LOS JÓVENES

Lo ha probado, Fuma menos de


Nunca lo ha Fuma los fines
pero ahora no una vez por Fuma diariamente Total
probado de semana
fuma semana
Nunca lo ha probado 77.7% 17.2% 3.2% 0.9% 1.0% 100.0%
Lo ha probado, pero ahora
no fuma 0.0% 75.0% 12.2% 4.7% 8.1% 100.0%
Fuma menos de una vez
por semana 0.0% 34.0% 22.0% 12.0% 32.0% 100.0%
Fuma los fines de semana 0.0% 26.5% 17.6% 26.5% 29.4% 100.0%
Fuma diariamente 0.0% 6.3% 8.3% 0.0% 85.4% 100.0%
Total 50.4% 31.8% 6.7% 3.0% 8.1% 100.0%

5 estados (1 transitorio, 4 recurrentes)


Ciclo= un año
Distribución inicial de la cohorte (N=1.340):
(0.58 0.28 0.05 0.03 0.06)
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Practica:

LOS ESTUDIANTES DESARROLLAN PROBLEMAS SOBRE LA CADENA DE MARKOV

Datos/Observaciones
Cierre:

Conclusiones Generales

1. La cadena de Markov, puede ser empleada en varios campos de la ciencia


2. La cadena de Markov es un tipo especial de proceso estocástico discreto en el
que la probabilidad de que ocurra un evento depende solamente del evento
inmediatamente anterior.

Datos/Observaciones

También podría gustarte