Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Aplicación Cadenas de Markov
Aplicación Cadenas de Markov
EN UN PROCESO INDUSTRIAL
CONTENIDO
INTRODUCCIN .................................................................................................... 3
ANTECEDENTES ................................................................................................... 3
OBJETIVOS ............................................................................................................ 5
MARCO TERICO .................................................................................................. 6
1. PROCESOS MARKOV .................................................................................... 6
1.1. ESTADOS DEL SISTEMA: ........................................................................... 6
1.2. LA CONDICIN DE MARKOV: .................................................................... 8
1.3. PROBABILIDADES DE TRANSICIN: ........................................................ 9
1.4. CLASIFICACIN DE LOS ESTADOS ........................................................ 12
2. COMPORTAMIENTO A LARGO PLAZO DE UNA CADENA REGULAR ...... 14
3. CADENAS ERGDICAS ............................................................................... 15
4. LMITES ERGDICOS EN LAS CADENAS DE MARKOV ............................ 15
5. CLASIFICACIN DE LOS ESTADOS: ........................................................... 18
SOLUCIN DEL PROBLEMA ............................................................................... 19
1. DESCRIPCIN DE LOS ESTADOS .............................................................. 19
2. EL PROCESO COMO CADENA DE MARKOV.............................................. 19
3. DATOS PARA CONSTRUIR LA MATRIZ DE TRANSICIN. ........................ 21
4. ICNICO DEL PROBLEMA ........................................................................... 25
5. CALCULO DE PROBABILIDADES ................................................................ 25
6. MATRIZ DE TRANSICIN ............................................................................. 26
7. ACCESIBILIDAD DE LOS ESTADOS ........................................................... 26
8. COMUNICACIN ENTRE ESTADOS ............................................................ 27
9. CONCURRENCIA DE LOS ESTADOS .......................................................... 27
10. MOSTRAR QUE LOS ESTADOS SON APERIDICOS. ........................... 29
11. POLINOMIO CARACTERISTICO Y VALORES PROPIOS. ....................... 30
12. DETERMINAR LA REGULARIDAD DE LA MATRIZ. ................................. 33
13. LMITES ERGDICOS ............................................................................... 34
14. VECTOR PROPIO PARA EL VALOR PROPIO =1 .................................... 37
15. PROBABILIDADES DE ESTADO ESTABLE .............................................. 37
16. TIEMPO DE RECURRENCIA Y PRIMERA OCURRENCIA ....................... 38
CONCLUSIONES .................................................................................................. 40
RECOMENDACIONES ......................................................................................... 42
BIBLIOGRAFA ..................................................................................................... 43
ANEXOS ............................................................................................................... 44
3
INTRODUCCIN
Empresa S.A.
ANTECEDENTES
Empresa es una empresa del grupo Eternit Blgica dedicada a generar soluciones
apilada en estibas.
SCRAP
5
OBJETIVOS
GENERAL:
ESPECIFICOS:
MARCO TERICO
1. PROCESOS MARKOV
1.1. ESTADOS DEL SISTEMA:
Un modelo de Markov consiste en un conjunto de estados discretos. Este
puede estar. La transicin del estado i a j ocurre con una probabilidad pij
transferencia.
demora hacer una parte. El tiempo para la falla, es el tiempo que ocurre entre
donde:
1 mquina disponible
Wi = 0 mquina en reparacin
M1 Inventario M2
0 1
largo periodo de tiempo. Estos datos se pueden recopilar para determinar que
S=(n,W1,W2),
Donde :
Sm. Entonces el sistema puede estar solo en uno de estos estados en algn
estado Si en el tiempo k.
Lo anteriores denota como la probabilidad de transicin. Note que (j) podr ser
y las pij son independientes de (k). Estas probabilidades pueden ser incluidas
P= . . . .
. . . .
0<=pij<=1
p =1, i = 1,2,3...........,m
ij
.j=1
exhaustivos.
ejemplo,
P[Sj(k+1)]=P[S1(k)p1j+P[S2(k)]p2j+......+P[Sm(k)]pmj,
k+1.
(P[S1(k+1)] P[S2(k+1)].P[Sm(k+1)])
. . ................. .
O de la siguiente forma:
P(1) = P(0)P
P(2)= P(1)P= P(0)P2
. . .
. . .
P(k) = P(0)Pk
k=0,1,2......
11
0.5
0.5 1 2 0.6
0.4
0.5 0.5
P=
0.4 0.6
Para encontrar P(k), se necesita Pk, que puede ser encontrada con una tcnica
entonces :
P(k) = P(0)Pk
ejemplo:
4/9 5/9
Pk=
4/9 5/9
12
puede ser vista con el rotulo de P(0)=(1 0). Entonces P k=[4/9 5/9] con k
al infinito sigue siendo igual. As, los limites de las probabilidades de estado son
inicial.
Limkinfinito P(k)=
Estado transitorio
a l.
13
Estado absorbente
Cadena recurrente
cadena recurrente
Es decir, una cadena de Markov es regular si existe un nmero de etapas n tal que
estrictamente positiva.
entonces existe una nica distribucin de probabilidad X c tal que TXc=Xc. Si,
dominante de T ya que, si >1, Lim ninfinito X(n) sera infinito para todas las
coordenadas y si <1, Lim ninfinito X(n) seria cero para todas las coordenadas. En
ninguno de los dos ltimos casos Xc es una distribucin de probabilidad. Por otro
para cualquier distribucin inicial X(0). Por lo tanto la matriz del estado
3. CADENAS ERGDICAS
Condicin suficiente: si existe un n>0 tal que P ijn >0, i, j=0,1,2....m. la cadena de
Markov, con esta propiedad, se llama ergdica. Entonces, P ijn = k=0 (Pikn * Pkj),
Teorema. Para una cadena de Markov ergdica, j =Lim ninfinito Pijn existe y j (j
problema es encontrar las condiciones para que este lmite exista y en caso de
1
Lim ninfinito Piin = inf
n=1 n fiin
Siendo fii la probabilidad de que el proceso regrese al estado i dado que comienza
en el estado i.
Y adems
Pij(inf) =Lim ninfinito Pijn , pero como Pij(inf) = Pii(inf) se concluye que la matriz
Supongamos que Lim ninfinito Piin = i >0 para algn i en una clase
ergdica.
del estado i. Ahora se asegura, sin demostracin, que bajo las condiciones
se tiene que
matricial:
matriz Pij asociado al autovalor 1. Para esto debemos saber que la matriz
1 HUMECTACIN
2 FABRICACIN
3 DESMOLDEO
4 APT
5 SCRAP
SCRAP
de procesos de Markov.
o en scrap.
entregue HUMECTACIN.
21
Scrap
5. CALCULO DE PROBABILIDADES
Proporciones
Proporciones de Humectacin
Produccin Total= 5330
Produccin Entregada= 5323.68 0.999
Produccin Perdida= 6.32 0.001
Proporciones de Fabricacin
Produccin Total= 5323.678548
Produccin Entregada= 5312.77 0.998
Produccin Perdida= 10.90 0.002
Proporciones de Desmoldeo
Produccin Total= 5312.774
Produccin Entregada= 5241.267 0.987
Produccin Perdida= 71.50624043 0.013
Proporciones de Almacn Producto Terminado
Produccin Total= 5305.159114
Produccin Entregada= 5289.79 0.997
Produccin Perdida= 15.37 0.003
Proporciones de Scrap
Produccin Entregada= Por norma de calidad 0.010
Produccin Perdida= 0.990
26
6. MATRIZ DE TRANSICIN
H Fab D APT S
H 0.000 0.999 0.000 0.000 0.001
Fab 0.000 0.000 0.980 0.000 0.020
D 0.000 0.000 0.000 0.987 0.013
APT 0.000 0.000 0.000 0.997 0.003
S 0.010 0.000 0.000 0.000 0.990
analizando.
H Fab D APT S
H 0.000 0.999 0.000 0.000 0.001
Fab 0.000 0.000 0.980 0.000 0.020
D 0.000 0.000 0.000 0.987 0.013
APT 0.000 0.000 0.000 0.997 0.003
S 0.010 0.000 0.000 0.000 0.990
27
Existe un n=3072 donde los valores de p ijn >0. esto indica que todos los estados j
son accesibles.
Si i es accesible desde j
Si j es accesible desde i
La matriz P3072 nos presenta este comportamiento pues todos los estados son
para j=0,1,....m
R1 R2 R3 R4 R5
R1= 0.000 0.000 0.000 0.000 0.010
R2= 0.999 0.000 0.000 0.000 0.000
R3= 0.000 0.980 0.000 0.000 0.000
R4= 0.000 0.000 0.987 0.997 0.000
R5= 0.001 0.020 0.013 0.003 0.990
1= 1 1 1 1 1
R1 R2 R3 R4 R5
R1= 0.000 0.000 0.000 0.000 0.010
R2= 0.999 0.000 0.000 0.000 0.000
R3= 0.000 0.980 0.000 0.000 0.000
R4= 0.000 0.000 0.987 0.997 0.000
1= 1 1 1 1 1
R1= 0.010 R5
R2= 0.999 R1
R3= 0.980 R2
R4= 0.987 R3 0.997 R4
1= 1R1 1R2 1R3 1R4 1R5
R1= 0.002
R2= 0.002
R3= 0.002
R4= 0.758
R5= 0.235
29
U Meses
U11 425.1
U22 425.5
U33 434.2
U44 1.3
U55 4.3
Los estados Recurrentes positivos presentan u ii < inf lo cual cumple para los
Matriz n=3072
Se puede observar en las matrices que los valores de las probabilidades en todas
las filas permanecen iguales entre las matrices pares e impares, a dems el
H Fab D APT S
H 0.000 0.999 0.000 0.000 0.001
Fab 0.000 0.000 0.980 0.000 0.020
D 0.000 0.000 0.000 0.987 0.013
APT 0.000 0.000 0.000 0.997 0.003
S 0.010 0.000 0.000 0.000 0.990
Calculamos el determinante de [P - ]
determinantes.
0.999
0.001
=
=
31
Primer determinante
segundo determinante:
=(-0.999) (-0.020) (
32
0.001 0 0.987
0 0
0.010 0 0
0.001 0 0.987
0 0
0.010 0 0
=0.001(
33
Valores propios:
1 1
2 0.9873
3 0.0221+0.0418i
4 0.0221-0.0418i
5 -0.0444
dominante de T ya que, si >1, Lim ninfinito X(n) sera infinito para todas las
coordenadas y si <1, Lim ninfinito X(n) seria cero para todas las coordenadas. En
ninguno de los dos ltimos casos Xc es una distribucin de probabilidad. Por otro
para cualquier distribucin inicial X(0). Por lo tanto la matriz del estado
que, si hay una matriz P, el nmero real o complejo se llama valor caracterstico
Pv=v
Xc 0.002
0.002
0.002
0.758
0.235
=
Xc 0.002
0.002
0.002
0.758
0.235
predominante que multiplicado por vector columna de los i hace que se cumpla
TXc = Xc y asi la cadena es regular por solo haber uny los otros en valor
Condicin suficiente: si existe un n>0 tal que P ijn >0, i, j=0,1,2....m. la cadena de
Esta condicin se puede probar con la matriz P 3072 la cual muestra que existe un
Teorema. Para una cadena de Markov ergdica, j =Lim ninfinito Pijn existe y j (j
0.002
0.002
0.002
0.758
0.235
Supongamos que Lim ninfinito Piin = i >0 para algn i en una clase aperidica
recurrente, entonces j >0 para todo j que est en la clase de i. Si este es el caso
existan los tiempos de recurrencia U ii, y tambin se mostro que la cadena era
anterior se mostr que Lim ninfinito Piin = i >0 se cumpla, por lo que se concluye
que es ergdica.
matricial:
Pij asociado al autovalor 1. Para esto debemos saber que la matriz de Markov
tiene un autovalor igual a 1, ms an, este valor ser el mayor, en valor absoluto,
si la matriz es primitiva, esto es si todas sus entradas son positivas para alguna
potencia de la matriz.
37
En los pasos anteriores se probo que Lim ninfinito Piin = i >0 se cumplia y que (1 2
an, este valor ser el mayor, en valor absoluto, si la matriz es primitiva, esto es si
El vector propio que acompaa a =1, son loa valores que aparecen en cada fila
de la matriz donde se observa la estabilidad del sistema o sea son los valores j.
Esto quiere decir, cuales la probabilidad que el sistema este a la larga en el estado
j.
0.002
0.002
0.002
0.758
0.235
38
estar en i partiendo de i)
U Meses
U11 425.1
U22 425.5
U33 434.2
U44 1.3
U55 4.3
Matriz original:
U34=1+0.013 U54
estara en APT con una probabilidad del 75,8%. Y para la materia prima que va a
indica que la probilidad a la larga que la materia prima se vuelva Scrap es del
23.5%.
vualva a este estado es U44 = 1.3 meses. En otras palabras, es el tiempo que
CONCLUSIONES
1. Esta primera conclusin es para decir que no se concluir sobre los resultados
los datos disponibles en la empresa. No hay otros ms. Lo que nos ensea que
7. las cadenas de Markov no deben abordase de una forma simple, ellas tienen
Y las cadenas que no son ninguna de las dos anteriores que implicacin
tienen?
Todas estas dudas me llevan a concluir que no es solamente construir una matriz
RECOMENDACIONES
BIBLIOGRAFA
Company Inc.
1. Cadenas de Markov
4. Anlisis de Markov
44
ANEXOS
1. Cadenas de Markov
4. Anlisis de Markov