Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Centla
CARRERA:
INGENIERÍA INDUSTRIAL
Materia:
INVESTIGACIÓN DE OPERACIONES II
Clave de la asignatura:
INC-1019
Catedrático:
ING. MARÍA DEL ROCÍO CRUZ TORRES
Alumnos:
KARLA GUADALUPE CARRILLO POZO 18E50020
SEMESTRE Y GRUPO:
5° “A”
Fecha de Entrega:
3/11/2020
0
Instituto Tecnológico Superior de
Centla
INTRODUCCIÓN
En este tema hablaremos de las cadenas de Markov, nos dice que estos son un tipo
de proceso estocástico introducido en 1906 por el matemático Andréi Markov, de
quien reciben su nombre, específicamente, al igual nos dice que una cadena de
Markov es un proceso estocástico de espacio de estados discreto en el que la
evolución futura del proceso solo depende de su estado presente y es independiente
de la evolución pasada del proceso, es decir, es un proceso que cumple con la
propiedad de no memoria, se tal manera que presentaremos en este tema la
caracterización de las cadenas de Markov de acuerdo a la temporalidad del
proceso estocástico. Nos dice que Sea T ⊂ R y (Ω, F, P) un espacio de probabilidad.
Un proceso aleatorio es una función
X:T×Ω→R
Tal que para cada t ∈ T, X(t, ·) es una variable aleatoria. Si fijamos ω ∈ Ω obtenemos
una función X(·, ω) : T → R que se conoce como una trayectoria del proceso.
1
Instituto Tecnológico Superior de
Centla
CADENAS DE MARKOV
En este tema nos dice que es un proceso estocástico donde la posibilidad de que
un evento ocurra depende del evento anterior, ya que básicamente, una cadena es
un proceso en tiempo discreto, al igual nos dice que también se puede suponer su
continuidad, pero esta tarea sobrepasa el ámbito en el que se enmarca esta
publicación en el que una variable aleatoria va cambiando de estado con el paso
del tiempo, al igual en otras palabras, nos dice que una cadena representa un
sistema que varía su estado a lo largo del tiempo, nos dice que un estado es una
caracterización de la situación en la que se halla un determinado sistema en un
instante dado, y puede ser tanto cuantitativo como cualitativo, en términos
coloquiales.
Las cadenas de markov son modelos probabilísticos que se usan para predecir la
evolución y el comportamiento a corto y a largo plazo de determinados sistemas a
continuación damos unos ejemplos los cuales son reparto del mercado entre
marcas; dinámica de las averías de máquinas para decidir política
de mantenimiento; evolución de una enfermedad,
Una Cadena de Markov (CM) nos dice que son:
Un proceso estocástico
Con un número finito de estados (M)
Con probabilidades de transición estacionarias
Que tiene la propiedad markoviana.
PROCESO ESTOCÁSTICO
Este es un conjunto de variables aleatorias: {X (t) CG} definidas en un mismo
espacio de probabilidad, normalmente el índice t representa un tiempo y X(t) el
estado del proceso estocástico en el instante t, el proceso puede ser de tiempo
discreto o continuo si G es discreto o continuo, si el proceso es de tiempo discreto,
usamos enteros para representar el índice: {X1, X2,...}
2
Instituto Tecnológico Superior de
Centla
Al igual nos dio a conocer unos ejemplos de procesos estocásticos los cuales son
Serie mensual de ventas de un producto
Estado de una máquina al final de cada semana (funciona/averiada)
Nº de clientes esperando en una cola cada 30 segundos
Marca de detergente que compra un consumidor cada vez que hace la
compra, ya que se supone que existen 7 marcas diferentes
Nº de unidades en almacén al finalizar la semana
3
Instituto Tecnológico Superior de
Centla
Haciendo L=[x y z]
LT=L
4
Instituto Tecnológico Superior de
Centla
Ésta última ecuación se coloca debido a que se debe complicar que la suma de las
probabilidades debes ser exactamente igual a 1, ya que al resolver este sistema de
ecuaciones por el método que más le guste, obtendrá los mismos resultados de la
matriz estable, es decir:
x=0.4165
y=0.3722
z=0.21131
Por lo que este método es práctico para los resultados a largo plazo.
5
Instituto Tecnológico Superior de
Centla
c)
b) Nótese que la parte azul cielo tiene probabilidades iguales a 1, por lo tanto esta
es la parte absorbente de la matriz. Por esta razón es una matriz absorbente.
Ahora se procede a restar la matriz normal de la identidad y se halla la inversa para
ver los tiempos entre estados, para posteriormente esta última ser multiplicada por
la matriz absorbente y saber las probabilidades de cambios de estado.
6
Instituto Tecnológico Superior de
Centla
Las cadenas de Márkov nos dice que tienen la propiedad de que la probabilidad de
que la variable aleatoria en cuestión se encuentre en un estado j en el instante t solo
depende del estado en que se encontraba el sistema en el instante t-1, y no de los
anteriores a este último, ya que en este sentido, las cadenas de Márkov tienen
memoria, si bien dicha memoria está restringida al último estado de la variable.
Pues bien, dicha sucesión de variables aleatorias constituirá una cadena de Márkov
si se verifica que:
En caso de que P (Xn = j/X0 = i0, X1 = i1, ..., X n-1 = ii-1, Xn-2 = ii-2) la cadena se
denominaría de segundo orden, es decir, en el ejemplo utilizado anteriormente, si la
probabilidad de evolución al alza, a la baja o de mantenimiento del valor de una
acción bursátil dependiese únicamente de si dicha acción subió o bajó o repitió valor
7
Instituto Tecnológico Superior de
Centla
8
Instituto Tecnológico Superior de
Centla
P(1) = p(0) T
p(n + r) = p(r) Tn
9
Instituto Tecnológico Superior de
Centla
¿Cómo se calculan en este caso las probabilidades Pi? En una cadena ergódica se
verifica que:
A → X2j
B → X1k
C → X0i
Se tiene que:
10
Instituto Tecnológico Superior de
Centla
Ejercicio N°1: Una empresa está considerando utilizar Cadenas de Markov para
analizar los cambios en las preferencias de los usuarios por tres marcas distintas
de un determinado producto. El estudio ha arrojado la siguiente estimación de la
matriz de probabilidades de cambiarse de una marca a otra cada mes:
11
Instituto Tecnológico Superior de
Centla
12
Instituto Tecnológico Superior de
Centla
13
Instituto Tecnológico Superior de
Centla
Las cadenas de Markov que se estudian en este capítulo tienen las siguientes
propiedades:
14
Instituto Tecnológico Superior de
Centla
CONCLUSION
Llegamos a la conclusión de que conocimos en este tema los procesos y elementos
de una cadena de Markov, nos dice que una cadena de Markov describe el
espaciados, al igual nos dice que el modelo de Cadena de Markov formulado como
producción a lo largo del tiempo, en estema igual nos dio a conocer que la cadena
15
Instituto Tecnológico Superior de
Centla
BIBLIOGRAFÍA
16