Está en la página 1de 23

CADENAS DE

MARKOV
INTEGRANTES:

• LOPEZ RODRIGUEZ TOMAS BRAYAN


• MENDOZA MALDONADO FERNANDO
• SOLIZ GUZMAN JESSICA
• TORRICO MINA EMILY NICOLE
• VIA FERNANDEZ DALCY LESLY
CONTENIDO

1 Quén fue Andrei Markov Andreyevich?

2 Qué es una cadena de Markov?

3 Dónde se utiliza?

4 Tipos de cadenas de Markov

5 Aplicación
01 ¿QUÍEN FUE ANDREY MARKOV ?
Matemático ruso que desarrolló la moderna teoría de
procesos estocásticos.

Nació: 2 de Junio de 1856 en Riazán (Rusia).


Murió: 20 de Julio de 1922 en San Petersburgo

Idea  Representar la probabilidad como una ciencia


matemática exacta y practica.

La Cadena de Markov como modelo de estudio de variables


aleatorias  Aporte Representativo a las matemáticas.

Contribución: Teoría de números, análisis, calculo de


diferencias finitas, teoría de la probabilidad y estadísticas.
OBJETIVOS

Objetivo general
• Emplear la cadena de Markov como una herramienta de
resolución para situaciones relacionadas con procesos
estocásticos..

Objetivos específicos

• Reconocer las generalidades de una cadena de Markov.


• Identificar las características de un proceso estocástico
markoviano.
• Clasificar de forma general las cadenas de Markov.
• Formular modelos soportados en cadenas de Markov.
PROCESO ESTOCÁSTICO
Un proceso estocástico es un conjunto de variables
aleatorias que depende de un parámetro o de un
argumento.

En términos mucho más sencillos, un proceso estocástico


es aquel que no se puede predecir. Se mueve al azar.
02
¿QUÉ ES UNA CADENA DE MARKOV?

• Herramienta  analizar procesos en que la sucesión de variable


aleatoria evoluciona en función de otra variable.
• Dichas variables o Conjunto de variables  efectos aleatorios=
Proceso estocástico.

• Una secuencia X1, X2, X3,… de variables aleatorias


Xn =Estado de proceso en el tiempo n.
DEFINICIO
EJEMPLO GRAFICO DE LA DINAMICA DE
N UNA CADENA DE MARKOV
Una cadena de markov es un proceso estocástico a
tiempo discreto {: n=0,1,…} con espacio de
estados discreto S={0,1,…} que satisface la:

PROPIEDAD DE MARKOV
P(=|=,….,=)

=P(=|

La propiedad de Markov significa que se conoce la trayectoria


del proceso hasta el tiempo n, la distribución de la variable
depende únicamente del ultimo valor observado esto es y no
de los valores anteriores.
04 TIPOS DE CADENAS DE MÁRKOV
Cadenas de Conjunto cerrado

Cadenas positivo-recurrentes
• Una cadena de Márkov es positiva recurrente si todos sus estados son
positivos recurrentes, si la cadena es irreducible, existe un único vector de
probabilidad invariante.

Cadenas regulares
• Una cadena de Márkov es regular (también primitiva o ergódica) si existe alguna
potencia positiva de la matriz de transición cuyas entradas sean todas extramente
mayores que 0.

Cadenas absorbentes
• Una cadena de Márkov con espacio de estados finito se llama absorbente si se cumple con al
menos un estado absorbente, de cualquier estado no absorbente se acceda a alguno estado
absorbente.
MATRIZ DE TRANSICIÓN

Una matriz de transición para una cadena de Markov de


(N).
MATRIZ DE TRANSICIÓN

• Cadenas homogéneas las


cuales se pueden representar
mediante un grafo dirigido.

• La matriz de transición P de cualquier cadena de Markov finita con probabilidades de


transición estacionarias es una matriz estocástica.
MATRIZ ESTOCÁSTICA

Es aquel que cumple con la condición de que todas sus


componentes son no negativas y la sumatoria de ellas es
igual a la unidad.
𝑛

∑ ¿ 𝑃𝑖=1
𝑖 =1

Definición: Matrices no negativas: Son aquellas que cumplen con la condición


de que todos sus elementos son no negativos.
EJEMPLO.
1) El departamento de estudios de mercado de una fábrica estima que el 20% de la gente que compra un producto un mes, no lo
comprará el mes siguiente. Además, el 30% de quienes no lo compren un mes lo adquirirá al mes siguiente. En una población de
1000 individuos, 100 compraron el producto el primer mes. ¿Cuántos lo comprarán al mes próximo? ¿Y dentro de dos meses?
Cálculo: con esa información construimos la matriz 2x2.
P(0) representa la situación:

𝑷= [ 0.8
0.3
0.2
0.7 ]
Inicial:

¿
El primer mes comprarán C=350 y no comprarán N=650
[
𝑷 = 0.8
0.3 ][
0.2 0.8
0.7 0.3 ][
0.2 = 0.7
0.7 0.45
0.3
0.55 ]

¿
El segundo mes comprarán C=475 y no comprarán N= 525
EJEMPLO:
2) En una población de 10,000 habitantes, 5000 no fuman, 2500 fuman uno o menos de un paquete
diario y 2500 fuman más de un paquete diario. En un mes hay un 5% de probabilidad de que un no
fumador comience a fumar un paquete diario, o menos, y un 2% de que un no fumador pase a
fumar más de un paquete diario. Para los que fuman un paquete, o menos, hay un 10% de
probabilidad de que dejen el tabaco, y un 10% de que pasen a fumar más de un paquete diario.
Entre los que fuman más de un paquete, hay un 5% de probabilidad de que dejen el tabaco y un
10% de que pasen a fumar un paquete, o menos. ¿Cuántos individuos habrá de cada clase el
próximo mes?
SOLUCIÓN:
0 1 2
0 0.93 0.05 0.02 NF= No fuman
FC= fuman uno o menos de un paquete diarios
1 0.10 0.80 0.10
FCC= fuman más de un paquete diario
2 0.05 0.10 0.85

¿
Después de un mes habrán NF=5025, FC=2500, FCC=2475
03 APLICACIÓN
• Utilidades en el mercado  Herramienta importante para los problemas.
• Problemas: Share de marcas, dinámica de mantenimiento y planeación de tareas
administrativas, modelos climatológicos, problemas de estadística, entre otros.
• Analizar los patrones de compra, deudores morosos, planear necesidad de personal
y analizar el reemplazo de equipo.
EJEMPLO
Representación Matricial de Estados

Hasta

Desde
Número esperado de veces en el estado no absorbente J

1 + 0.1612 + 1.3395 = 2.2191


Numero de veces que un estudiante esta inscrito en la
asignatura de Matemáticas VI antes de acreditarla.

Para una población de alumnos de nuevo ingreso


promedio, se considera:
(37)(0.1612)= 5.9644

37+6= 43, salón con 43 sillas disponibles para


alumnos que cursan por 1ra vez
+6 personas que recursan.
Probabilidad de Absorción

0.9092= Probabilidad de que el alumno pase la


materia

0.0896= Probabilidad de que el alumno deserte


la materia
GRACIAS
—INVESTIGACION OPERATIVA II

También podría gustarte