Está en la página 1de 10

CAPITULO 1

MARCO TERICO
1. MODELOS OCULTOS DE MARKOV
Segn Morgan (1991) Los MOM describen un proceso de probabilidad el cual
produce una secuencia de eventos o smbolos observables. Son llamados ocultos
porque hay un proceso de probabilidad subyacente que no es observable, peor
afecta la secuencia de eventos observados.
Xuang, Acero y Hon(2001) Los MOM son una extensin de las cadenas de
Markov en donde la salida del sistema puede tomar varios valores para cada
estado con lo que nace una nueva variable aleatoria (discreta o continua),
conocida como vector de variables aleatorias. Este tipo de sistema se implanta
como un doble proceso estocstico: el de las transiciones entre estados y el de la
salida para cada estado.
Un MOM es un proceso estocstico que consta de un proceso de Markov no
observado (oculto) q = {qt}t y un proceso observado O = {o t}t cuyos estados
son dependientes estocsticamente de los estados ocultos, es decir, es un
proceso bivariado (q,O). Los MOM se pueden considerar tambin como sistemas
generativos estocsticos, los cuales se emplean en la modelacin de series de
tiempo.
Solamente los smbolos emitidos por el proceso q son observables, pero no la ruta
o secuencia de estados q, de ah el calificativo de "oculto" de Markov, ya que el
proceso de Markov q es no observado.
1.1.

Elementos que componen a los MOM:

a) N: representa el nmero de estados del MOM.


Denotacin:
_ Estado: S = {S1, S2, S3,, Sn}
_ Estados en el tiempo: t como qt.
b) M: representa el nmero de observaciones que se producen. Si estas son
continuas M es infinito.
Denotacin:
_ Smbolo de observacin: V = {V1, V2,, VM}
_ Observacin en tiempo: t, Ot E V.
c) A = {aij}: Matriz de transicin de probabilidades, donde a ij es la probabilidad
de que se d la transicin desde el estado i al estado j.
Denotacin:
_ aij = P(qt = Sj | qt-1 = Si ),
1 i,j N,
2 t T,
aij 0 ij.
Se pueden presentar casos en el que un estado puede ser alcanzado por
otro estado en un solo paso, tenemos que:
aij > 0

Para todo i,j. En los MOM en general, se tiene que a ij = 0 para uno o mas
parejas de valores (i, j).
N

aij=1
i=1

i.

d) B = {bj(K)}: la distribucin de parmetros de las probabilidades de


observacin en el estado j.
Denotacin:
bi(k) = P(Vk en t | qt = Sj), 1 j N,
1 k M
tal que
bj(k) 0,
1 j N,
1 k M
y
k

bj ( k ) =1
k=1

1 j N

e) : conjunto de probabilidades de estado inicial = {i}, siendo pi la


probabilidad de que el estado inicial de MOM sea el S i.
Denotacin:
i = P(q1 = Si),
1 i N
tal que
i 0, 1 i N
y
N

i=1
i=1

Establecidos los valores apropiados para N, M, A, B y , a los MOM se les


puede utilizar para que genere una secuencia de observaciones.
O = O1, O2,, Ot
Por lo tanto, un modelo de Markov se describe como:
= (A,B, )

1.2.

TIPOS DE MODELOS OCULTOS DE MARKOV

MOM discretos: En ste, las observaciones son vectores de


smbolos de un alfabeto finito con M+1 elementos diferentes
MOM continuos: Se asume que las distribuciones de los smbolos
observables son densidades de probabilidad definidas sobre espacio
de observacin continuos.
MOM semicontinuos: Al igual que los continuos, pero con la
diferencia en que las funciones bases son comunes a todos los
modelos.

1.3.

ARQUITECTURAS DE UN MOM

Un MOM puede ser representado como un grafo dirigido de


transiciones/emisiones como se ilustra en la figura 1.1. La arquitectura especfica
que permita modelar de la mejor forma posible las propiedades observadas
depende en gran medida de las caractersticas del problema. Las arquitecturas
ms usadas son:
a) Ergdicas: o completamente conectadas en las cuales cada estado del
modelo puede ser alcanzado desde cualquier otro estado en un nmero
finito de pasos.

Ilustracin 1: Arquitectura del grafo de un modelo de urnas y bolas (Ergdica).

b) Izquierda-derecha: hacia adelante o Bakis las cuales tienen la propiedad


de que en la medida que el tiempo crece se avanza en la secuencia de

observacin asociada O, y en esa misma medida el ndice que seala el


estado del modelo permanece o crece, es decir, los estados del sistema
van de izquierda a derecha. En secuencias biolgicas y en reconocimiento
de la voz estas arquitecturas modelan bien los aspectos lineales de las
secuencias.

Ilustracin 2: Arquitectura Izquierda - derecha con 4 estados

c) Izquierda-derecha paralelas, son dos arquitecturas izquierda-derecha


conectadas entre s.

Ilustracin 3: Arquitectura de izquierda derecha paralelo con 6 estados.

1.4.

PROBLEMAS BSICOS DE LOS MOM:

Existen tres problemas bsicos relacionados con los MOM:


a) Problema de Evaluacin: Dada una secuencia de observacin O = {o 1, o2,...,
oT } y un modelo = {A,B, }, Cmo calculamos P(O | ), la probabilidad de la
secuencia de observacin?

Algoritmo de avance: Definamos la variable de avance t(i), como la


probabilidad de la secuencia de observacin parcial hasta el tiempo t y estado
s i en el tiempo t, dado el modelo, ejemplo:
t(i) = P(o1o2 ...ot, qt = si|)
Se puede demostrar fcilmente que:
1(i) = ibi(o1), 1 i N
N

P(O|) =

T (i)
i=1

Por induccin:
t (i)aij
N

t+1 (j) =

i=1

Ilustracin del algoritmo de avance:

Algoritmo de retroceso: Del mismo modo, definamos la variable de retroceso


t(i), como la probabilidad de la secuencia de observacin parcial desde el
tiempo t + 1 hasta el final, dado el estado s i en tiempo t y el modelo, ejemplo:
t(i) = P(ot+1ot+2 ...oT |qt = si, )

Puede demostrarse fcilmente que:


T (i)=1, 1 i N
y:
N

ibi(o 1) 1(i)

P(O|) =

i=1

Por induccin:
N

t (i) =

aijbj ( ot+1)t +1( j)


j=1

; t = T 1, T 2... 1;

Ilustracin del algoritmo del retroceso:

1iN

b) Problema de Decodificacin: Dada una secuencia de observacin O = {o 1,


o2,..., oT}, cmo elegimos una secuencia de estado Q = {q 1, q2,..., qT } que de
algn modo sea ptima?

Algoritmo de Viterbi: es un algoritmo de programacin dinmica para


encontrar la secuencia ms probable de estados ocultos - llamado el camino
de Viterbi - en los resultados en una secuencia de eventos observados,
especialmente en el contexto de fuentes de informacin de Markov y modelos
ocultos de Markov.
El algoritmo de Viterbi permite encontrar las secuencias de estados ms
probable en un Modelo oculto de Markov (MOM),

, a

partir de una observacin


, es decir, obtiene la
secuencia ptima que mejor explica la secuencia de observaciones.
1. Inicializacin:
1(i) = ibi(o1),
1iN
1(i) =0
2. Recursin:
t(j) = max [t1(i)aij] bj(ot)
1iN
t(j) = argmax[t1(i)aij],
1iN
3. Terminacin:
P = max[T (i)]
q = argmax[T (i)]

2 t T,

1jN

2 t T,

1jN

1iN
1iN

4. Trayectoria inversa (secuencia de estado):


qt = t+1(q*t+1), t = T 1, T 2,..., 1
Cmputo N2T

c) Problema del Entrenamiento: Cmo ajustamos los parmetros del modelo


= {A, B, } para maximizar P(O | )?

Algoritmo de reestimacin de Baum-Welch: La reestimacin de BaumWelch emplea el algoritmo de avance retroceso.


1. Hay que defefinir t(i,j) como la probabilidad de estar en el estado s i en
tiempo t y en el estado sj en tiempo t + 1, dado el modelo y la secuencia de
observacin:
t(i, j) = P(qt = si, qt+1 = sj|O, )
2. Luego:
t (i)aijbj (ot+ 1) t+1( j)
t(i, j) =
P (O)
N

t(i) =

t (i , j)
j=1

3. Sumando t(i) y t(i,j), obtenemos:


T1

t (i)
t =1

= nmero esperado de transiciones desde si.

T1

t (i , j)
t =1

= nmero esperado de transiciones desde si a sj.

Ilustracin del algoritmo de Baum-Welch

Bibliografa:
Modelos Ocultos de Markov:

http://www.virtual.unal.edu.co/cursos/ingenieria/2001832/lecturas/hmm.pdf
http://www.virtual.unal.edu.co/cursos/ingenieria/2001832/lecciones/hmm1.ht
ml
http://www.slideshare.net/slidemarcela/modelos-ocultos-de-markov1395263
http://mit.ocw.universia.net/6.345/NR/rdonlyres/Electrical-Engineering-andComputer-Science/6-345Automatic-SpeechRecognitionSpring2003/4C063D4A-3B8B-4F05-B47585AAD0D66586/0/lecture10.pdf

También podría gustarte