Está en la página 1de 6

1.

Cadenas de Markov Ocultas


Definicin formal
De acuerdo con Carrre, N. (2005), Mientras que en el modelo de Markov bsico se
tiene un modelo estocstico intrnseco por lo tanto de las transiciones entre estados
no van ser determinsticas sino que van a estar indicadas por un probabilidad en
realidad los modelos markovianos comunes estn orientados a ser de forma
determinstica.
Adems se indica que este modelo se considera que cada estado corresponde a un
evento fsicamente observable, por ejemplo el estado sea bueno malo o regular, seco
o hmedo, etc. Sin embargo si este estado hay una probabilidad que suceda una
observacin ya no es un modelo de markov comn se vuelve un problema de cadena
de markov oculta. Hay que tomar en cuenta que los modeos de markov.
A estos modelos tambin se les conoce como modelos markovianos escondidos.
Ferragut (2004) indica lo siguiente :
Los Modelos Varsovianos Escondidos (Hidden Markov Models, HMM) constituyen
una potente herramienta para el modelado de diversos sistemas que aparecen en el
estudio de fenmenos del mundo real. Esto se debe a su gran flexibilidad en la
descripcin de la dinmica del sistema, introduciendo dependencia en la evolucin del
mismo, y a su vez el que permite modelar las caractersticas aleatorias intrnsecas de
mediciones y ruido que aparecen en todos los fenmenos prcticos. Desde el punto de
vista matemtico, los modelos obtenidos permiten obtener formulas recursivas
simples, de donde se obtienen filtros y estimadores de gran eficiencia computacional.
Todo esto constituye un punto a favor decisivo, que hace que estos modelos hayan
cobrado gran relevancia en las aplicaciones modernas(p.1).

Propiedades y algoritmos bsicos:
Para demostrar un poco la diferencia entre el modelo normal y el oculto estamos
citando unas diapositivas encontradas en la ip 148.204.64.201 desafortunadamente el
autor y la pgina de las cuales provienen estn encontradas en el anonimato
Ejercicio. Dada una simple moneda, con P(cara)=P(cruz)=0.5. Determinar:
(1) Cul es la probabilidad de que en los siguientes 10 lanzamientos se obtenga la
secuencia (HHTHTTHTTH)?
(2) Cul es la probabilidad de que en los siguientes 10 lanzamientos se produzca la
secuencia (HHHHHHHHHH)?
(3) Cul es la probabilidad de que en 5 de los prximos 10 lanzamientos sean
cruces?, y asimismo, Cul es el nmero esperado de cruces en los prximos 10
lanzamientos?
Solucin
(1) Para una moneda simple, con lanzamientos de monedas independientes, la
probabilidad de que alguna secuencia de observacin especfica de longitud 10 (10
lanzamientos) es (1/2)10 debido a que existen 210 de tales secuencias y todas son
igualmente probables. (Anonimo,2005).
El modelo de resultado es parecido a un problema de cadena markov simple, para
entender los resultados finales por favor los anexos

La probabilidad de 5 cruces coincide con el nmero de secuencias de observacin de 5
caras y 5 cruces. Debido a que existen (10 5) formas de obtener 5H y 5T en 10
lanzamientos y cada secuencia tiene la probabilidad de (1/2)
10
. El nmero esperado de
caras en 10 lanzamientos es:

=
= |
.
|

\
|
|
|
.
|

\
|
=
~ = |
.
|

\
|
|
|
.
|

\
|
=
|
.
|

\
|
=
|
.
|

\
|
=
10
0
10
10
10
10
5
2
1
10
) 10 (
25 . 0
1024
252
2
1
5
10
) 5 , 5 (
. 3
2
1
) (
. 2
2
1
) (
. 1
d
d
d os lanzamient en T E
T H P
HHHHHHHHHH P
HHTHTTHTTH P

. (Anonimo,2005).
Para ver los resultados planteados del problema anterior planteado en el Anexo 1.
En sntesis podemos decir que estos modelos HMC estn orientados a la suma de
probabilidades consecutivas hablando de la posibilidad que un evento se repita
muchas veces y esto afecte al problema, adems de no saber los eventos futuros, pero
hay que tener en cuenta que los problemas reales hay ms de dos posibilidades o cara
o sello, en la vida real esto no se da tan sencillamente por lo tanto hay frmulas y
tcnicas para determinar el resultado cuando esto se derive a un nivel ms complejo.
De nuevo citando a la ip annima vemos otro caso esta vez ms aleatorio:
Una persona est en un cuarto, de acuerdo a un procedimiento aleatorio, elige una
urna inicial; de esta urna, una pelota es seleccionada al azar, y su color es registrado
como una observacin. La pelota entonces se reemplaza en la urna de la que fue
seleccionada. Se escoge una nueva urna de acuerdo al proceso aleatorio, y el proceso
de seleccin de pelota se repite, de esta forma se genera una secuencia de
observaciones finitas de colores, la cual podramos modelar como la salida observable
de una HMM.
Debido a que los estados se encuentran ocultos, para muchas aplicaciones prcticas
existe algn significado relacionado a los estados o conjuntos de estados del modelo.
En el modelo de la urna y las pelotas, cada estado corresponde a las urnas.
Generalmente, los estados estn interconectados de tal forma que cualquier estado
puede alcanzar a otro; como veremos, existen una gran cantidad de interconexiones
entre estados de inters y esto se puede trasladar a aplicaciones de reconocimiento de
voz. Se etiquetan los estados individuales como {1,2,....,N}, y denotan el estado al
tiempo t como q
t
. (Anonimo,2005).
Vase el anexo 2 para entender el caso anterior.
El primer paso es estimar los estados, luego procederemos diversas herramientas que
nos ayudaran a definir las probabilidades futuras estas son: las ecuaciones foward-
Back,el algoritmo de Viterbi,para pasar a la estimacin de parmetros y al algoritmo de
Braum-Viterbi un hibrido. Estos temas son muy variados y cada uno tiene una
conceptualizacin compleja por lo cual solo nos propondremos un alcance sencillo
para este caso.
Pasos para estimar los estados
Los smbolos de observacin corresponden a la salida fsica del sistema que est
siendo modelado. Para el caso del experimento con las monedas son la cara y la cruz.
Para el modelo de la urna con las pelotas son los colores de las pelotas seleccionadas
de las urnas. Se denotan los smbolos individuales como:
V={v1,v2,.,vm}
La distribucin de probabilidad de cada estado de transicin es A={a
ij
}, donde a
ij
se
define como se muestra en la ecuacin.
| | N j i i q j q P a
t t ij
s s = = =
+
, 1 , |
1

para el caso especial en el cual un estado puede alcanzar a otro estado en un paso
sencillo, tenemos
0 >
ij
a

para todos los i, j. Para otros tipos de HMM, podramos tener
0 =
ii
a

La observacin de los smbolos de la distribucin de probabilidad,
( ) { } k b B
j
=

en la cual
) (k b
j

se define por la ecuacin, donde se definen los smbolos de distribucin en el estado j,
j=1,2,...,N.
( ) | | , 1 , | M k j q v o P k b
t k t j
s s = = =

Distribucin del estado inicial (t)
La distribucin del estado inicial la cual est definida por la ecuacin
{ }
i
t t =

| | N i i q P
i
s s = = 1 ,
1
t

se puede observar que un modelo de un HMM requiere la especificacin de dos
parmetros para l nmero de estados (N) y nmero de diferentes observaciones de
cada smbolo por estado (M), la especificacin de los smbolos de observacin, y la
especificacin de los tres estados de probabilidad medidos A, B y
Por conveniencia, usamos la notacin compacta
( ) t , , B A =

para indicar el conjunto de parmetros completos del modelo. Este conjunto de
parmetros, por supuesto, definen una medida de probabilidad para O, por ejemplo,
( ) | O P

Dados los valores apropiados de N, M, A, B y t
el HMM puede ser usado como un generador para dar una secuencia de observacin
( )
T
o o o O
2 1
=

en la cual cada observacin O
t
es una de los smbolos de V, y T es el nmero de
observaciones en la secuencia como sigue:
1. Selecciona un estado inicial
i q =
1

de acuerdo a la distribucin de estado inicial
2. Establecemos

1 = t

3. Seleccionamos
k t
v o =

de acuerdo al smbolo de distribucin de probabilidad en estado i, por ejemplo b,(k)
La transicin a un nuevo estado
j q
t
=
+1

de acuerdo a la distribucin de probabilidad del
estado de transicin par el estado i por ejemplo
ij
a

4. Establecer t=t+1 regresar al paso 3 si t <T ; de otra forma termina el procedimiento
(Anonimo,2005).
Finalmente en los anexos se muestra una tabla donde se presenta la secuencia de estados y
observaciones obtenidas de las diapositivas
Segn Anonimo(2005)Este procedimiento se puede usar tanto para un generador de observaciones
como para un modelo de simulacin de una secuencia de observacin puesto que se genera por una
hmn apropiada

Aplicabilidad
Segn un tutorial de la universidad de Brown (1998) traducido al espaol el artculo
indica que este modelo esta aplicado al reconocimiento de formas temporales, como
reconocimiento de habla o bioinformtica por la cantidad inmensa de posibilidades
que estos presentan, tambin para algunos casos orientados a la fontica.
Vase el anexo 2 por ejemplo
Glosario
Estocstico=aquello cuyo comportamiento es intrnsecamente no determinista
Intrnseco =Un termino para designar lo que corresponde un objeto por razn de su
naturaleza y no por su relacin con otro

Referencias bibliogrficas:
Ferragut, A.Modelos Markovianos, (Agosto de 2004). Escondidos Monografa de
tratamiento estadstico de seales Curso 2003http://www.fing.edu.uy]
Disponible en
http://www.fing.edu.uy/iie/ense/asign/tes/materiales/monografias/MonografiaModel
osMarkovianosEscondidos_%20AndresFerragut.pdf

Brown Computer Science, (1998, 14 de Septiembre). Hidden markov model
[cs.brown.edu]
Recuperado de:
http://cs.brown.edu/research/ai/dynamics/tutorial/Documents/HiddenMarkovModels
.html

Carrere, N. (2007). Cadenas de markov ocultas [diapositivas de PowerPoint].
Recuperado de: http://www.alumnos.inf.utfsm.cl/~ntroncos/files/publish/hmm.pdf

Annimo (2005). Cadenas ocultas de Markov [diapositivas de PowerPoint]. Recuperado
de:
http://148.204.64.201/paginas%20anexas/voz/CADENAS%20OCULTAS%20DE%20MAR
KOV.ppt

Anexos

Obtenido de
:http://148.204.64.201/paginas%20anexas/voz/CADENAS%20OCULTAS%20DE%20MA
RKOV.ppt


Obtenido de
:http://148.204.64.201/paginas%20anexas/voz/CADENAS%20OCULTAS%20DE%20MA
RKOV.ppt

También podría gustarte