Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Definicion de HMM PDF
Definicion de HMM PDF
Periodo 2008-2
Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Contenido
1 Introducción
2 Cadenas de Markov
La Propiedad de Markov
Introducción
Cadenas de Markov
Definición
Un proceso de Markov es un proceso estocástico que sirve para
representar secuencias de variables aleatorias no independientes
entre sı́. Es decir, donde la probabilidad del siguiente estado sobre
una secuencia completa depende de estados previos al estado
actual.
La Propiedad de Markov
Definición
Sea X = {X1 , . . . , XT } una secuencia de variables aleatorias que
toman valores en un conjunto finito S = {s1 , . . . , sN } que se llama
el espacio de estados. Entonces, las propiedades de Markov son:
Horizonte limitado:
P(Xt+1 = sk |X1 , . . . , Xt ) = P(Xt+1 = sk |Xt )
Invariante en el tiempo
P(Xt+1 = sk |X1 , . . . , Xt ) = P(X2 = sk |X1 )
Si X cumple estas dos propiedades, se dice que X es una cadena
de Markov o que tiene la propiedad de Markov.
Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Cadenas de Markov
La Propiedad de Markov
0.4 0.6
0.3
Lluvioso Nublado
0,4 0,3 0,3
0.2 A = 0,2 0,6 0,2
0.3 0.1 0,1 0,1 0,8
0.1 0.2
Π= 0,25 0,25 0,5
Soleado
0.8
Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Cadenas de Markov
La Propiedad de Markov
Cuál es la probabilidad
Qde la secuencia: LSLSLSN ?
T −1
P(X1 . . . , XT ) = ΠX1 t=1 A[Xt , Xt + 1]
Cuál es la probabilidad de tener el mismo clima por d dı́as?
0.7 0.5
0.3
Definición
Un modelo oculto de Markov es una tupla M = {S, Σ, A, B, Π}
donde:
S es un conjunto finito de estados.
Σ es un conjunto finito de sı́mbolos.
A es la matriz de probabilidades de transición entre estados de
S. A[i , j] es P(Xt+1 = Sj|Xt = si )
B es la matriz de probabilidad de emisión de sı́mbolos de Σ.
B[j, k] es B[j, k] = P(Ot = k|Xt = sj )
Π es el vector de probabilidades iniciales. Π[i ] es P(X1 = Si )
Se denota una secuencia de estados X = (X1 , . . . , XT +1 ) donde
Xt : S → {1, . . . , N} y una secuencia de observaciones
O = (o1 , . . . , oT ) con oT ∈ Σ
Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Modelos Ocultos de Markov
Problema de Evaluación
Definición
Dada una secuencia de observaciones O1 , . . . , OT y un modelo de
Markov M = (A, B, Π), cómo calcular eficientemente P(O|M), la
probabilidad de la secuencia dado el modelo?
αt (i ) = P(O1 , . . . , Ot , Xt = si |M)
Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Modelos Ocultos de Markov
Problema 1
Calculo de
probabilidad
λ2
Calculo de P(O|λ2)
probabilidad
Analisis de Seleccionar
S O
caracteristicas LPC Maximo
λν
Calculo de
probabilidad
Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Modelos Ocultos de Markov
Aplicaciones
Algoritmo de Viterbi
Algoritmo de Viterbi
Inicialización:
δ1 (i ) = Π[i ]B[i , Oi ], 1 ≤ i ≤ N
ψ1 (i ) = 0
Recursión:
δt (i ) = máx (δt−1 (i )A[i , j])B[j, Ot ], con2 ≤ t ≤ T y1 ≤ i ≤ N
1≤i ≤N
ψt (i ) = argmax1≤i ≤N (δt−1 (i )A[i , j]), con2 ≤ t ≤ T y1 ≤ i ≤ N
Terminación:
p∗ = máx (δT (i ))
1≤i ≤N
qT∗ = argmax1≤i ≤N (δT (i ))
Obtención del camino:
qT∗ ∗
= ψt+1 (qt+1 )t = T − 1, T − 2, . . . , 1
Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Modelos Ocultos de Markov
Aplicaciones