Está en la página 1de 17

UNIVERSIDAD TCNICA ESTATAL DE QUEVEDO

FACULTAD DE CIENCIAS DE LA INGENIERA


ESCUELA DE TELEMTICA

CARRERA:
INGENIERA EN TELEMTICA

UNIDAD DE APRENDIZAJE:
TELEFONIA Y CONMUTACIN

TEMA:
CADENA DE MARKOV

AUTORES:
MIRANDA TINOCO EDUARDO GILBERTO
ROSERO MAFLA LUIS EDUARDO

DOCENTE:
ING. PAUL CHILIGUANO

PERIDO ACADMICO
2017 - 2018
DEFINICIN
HISTORIA

se denomina proceso de Markov o cadena de


Markov (una cadena de eventos, cada evento
ligado al precedente). Estas cadenas reciben
su nombre del matemtico ruso Andrei
Andreevitch Markov (1856-1922).

DEFINICIN

Una cadena de Markov es una sucesin de ensayos


similares u observaciones en la cual
cada ensayo tiene el mismo nmero finito de
resultados posibles y en donde la probabilidad de
cada resultado para un ensayo dado depende slo
del resultado del ensayo inmediatamente precedente
y no de cualquier resultado previo.
PROPIEDADES DE
MARKOV

Dada una secuencia de variables aleatorias 1 ,2 ,3 ,......, tales que el valor de es el


estado del proceso en el tiempo n. Si la distribucin de probabilidad condicional de +1 en
estados pasados es una funcin de por s sola, entonces:

Esta identidad es la denominada


propiedad de Markov: El estado
en t + 1 slo depende del estado
en t y no de la evolucin anterior
del sistema
CADENAS DE MARKOV FINITAS CON
PROBABILIDADES DE TRANSICIN ESTACIONARIAS

CADENA DE MARKOV FINITA PROBABILIDAD DE TRANSICIN

Es una cadena de Markov para la que En una cadena homognea


existe slo un nmero finito k de estados finita con m posibles
posibles 1 .., y en cualquier instante estados 1 , 2 , . . se
de tiempo la cadena est en uno de puede introducir la notacin.
estos k estados.

PROBABILIDAD DE TRANSICIN ESTACIONARIA

Una cadena de Markov tiene probabilidades de transicin estacionarias si para cualquier par
de estados y , existe una probabilidad de transicin tal que.
CADENAS DE MARKOV FINITAS CON
PROBABILIDADES DE TRANSICIN ESTACIONARIAS

MATRIZ DE TRANSICIN

Al trabajar con cadenas de Markov, a menudo es til pensar la sucesin de ensayos como
experimentos efectuados en cierto sistema fsico, cada resultado dejando a este sistema en
cierto estado.

EJEMPLO

consideremos una sucesin de elecciones polticas en cierto pas: el sistema podra tomarse
como el pas mismo y cada eleccin lo dejara en cierto estado, es decir en el control del partido
ganador. Si slo hay dos partidos polticos fuertes, llamados A y B, los que por lo regular
controlan el gobierno, entonces podemos decir que el pas se encuentra en el estado A o B si el
partido A o B ganara la eleccin. Cada ensayo (o sea cada eleccin), coloca al pas en uno de
los dos estados A o B. Una sucesin de 10 elecciones podra producir resultados tales como los
siguientes:

A, B, A, A, B, B, B, A, B, B
CADENAS DE MARKOV FINITAS CON
PROBABILIDADES DE TRANSICIN ESTACIONARIAS

La primera eleccin en la sucesin deja en el poder al partido A, la segunda fue ganada por el
partido B, y as sucesivamente, hasta que la dcima eleccin la gane el partido B. Supongamos
que las probabilidades de que el partido A o B ganen la prxima eleccin son determinadas por
completo por el partido que est en el poder ahora. Por ejemplo podramos tener las
probabilidades siguientes:

Si el partido A est en el poder, existe una probabilidad de que el partido A ganar la


prxima eleccin y una probabilidad de de que el partido B gane la eleccin siguiente.
Si el partido B est en el poder, hay una probabilidad de 1/3 de que el partido A gane la
eleccin siguiente y una probabilidad de 2/3 que el partido B permanezca en el poder.

1/4 Los crculos A y B se denominan


3/4 nodos y representan los estados
2/3
A
del proceso, las flechas que van
de un nodo a si mismo o al otro
B son los arcos y representan la
1/3 probabilidad de cambiar de un
estado al otro.
CADENAS DE MARKOV FINITAS CON
PROBABILIDADES DE TRANSICIN ESTACIONARIAS

La informacin probabilstica que se acaba de dar se puede representar de manera conveniente


por la siguiente matriz:

Resultado de la prxima eleccin

A B
A
1/4 3/4
Resultado de la
ltima eleccin B 1/3 2/3

MATRIZ ESTOCSTICA

Es una matriz cuadrada cuyos elementos son no negativos y tal que la suma de los elementos de
cada fila es igual a 1.
CADENAS DE MARKOV FINITAS CON
PROBABILIDADES DE TRANSICIN ESTACIONARIAS

MATRIZ ESTOCSTICA

Dada una cadena de Markov con k estados posibles .. , y probabilidades de transicin


estacionarias.

La matriz de transicin P de cualquier cadena de Markov finita con probabilidades de transicin


estacionarias es una matriz estocstica
RESUMEN Y EJEMPLO
CADENA DE MARKOV: Una cadena de markov consta de unos estados E1 E2 E3 E4..En. que
inicialmente en un tiempo 0 o paso 0 se le llama estado inicial, adems de esto consta de una
matriz de transicin que significa la posibilidad de que se cambie de estado en un prximo tiempo
o paso.

MATRIZ DE TRANSICIN: Una matriz de transicin para una cadena de Markov de n estado es
una matriz de n X n con todos los registros no negativos y con la propiedad adicional de que la
suma de los registros de cada columna (o fila) es 1.

Por ejemplo: las siguientes son matrices de transicin.


REPRESENTACIN GRAFICA DE UNA MATRIZ DE TRANSICIN: Es el arreglo numrico
donde se condensa las probabilidades de un estado a otro. A travs de una grafica de matriz de
transicin se puede observar el comportamiento estacionario representado por una cadena de
Markov tal que los estados representan la categora en que se encuentre clasificado. Como se
aprecia a continuacin:

PROPIEDADES:

1- la suma de las probabilidades de los estados debe


ser igual a 1.

2- la matriz de transicin debe ser cuadrada.

3- las probabilidades de transicin deben estar entre 0


y1
En un pas como Colombia existen 3 operadores principales de telefona mvil como lo son tigo,
Comcel y movistar (estados).
Los porcentajes actuales que tiene cada operador en el mercado actual son para tigo 0.4 para
Comcel 0.25 y para movistar 0.35. (estado inicial)
Se tiene la siguiente informacin un usuario actualmente:

- De tigo tiene una probabilidad de permanecer en tigo de 0.60, de pasar a Comcel 0.2 y de pasarse
a movistar de 0.2;
- De Comcel tiene una probabilidad de mantenerse en Comcel del 0.5 de que esta persona se
cambie a tigo 0.3 y que se pase a movistar de 0.2;
- De movistar la probabilidad que permanezca en movistar es de 0.4 de que se cambie a tigo de 0.3
y a Comcel de 0.3.
Partiendo de esta informacin podemos elaborar la matriz de
transicin.
La suma de las probabilidades de cada estado en este caso operador
deben ser iguales a 1

Po= (0.4 0.25 0.35) estado inicial

Tambin se puede mostrar la transicin por un mtodo grfico

0,2
0,6
0,3
TIGO COMCEL

0,2 0,5
0,2
0,3 0,3

MOVISTAR

0,4
Ahora procedemos a encontrar los estados en los siguientes pasos o
tiempos, esto se realiza multiplicando la matriz de transicin por el estado
inicial y as sucesivamente pero multiplicando por el estado inmediatamente
anterior.

Como podemos ver la


variacin en el periodo 4
al 5 es muy mnima casi
insignificante podemos
decir que ya se a llegado
al vector o estado
estable.
FUENTES DE
INFORMACIN
http://www.ugr.es/~bioestad/_private/cpfund10.pdf

http://halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/PEst/tema4pe.pdf

http://www.bioingenieria.edu.ar/academica/catedras/metestad/Cadenas%20de%20Markov-1.pdf

http://investigaciondeoperaciones2markov.blogspot.com/p/teoria-y-ejemplos.html

También podría gustarte