Documentos de Académico
Documentos de Profesional
Documentos de Cultura
=
= |
.
|
\
|
|
|
.
|
\
|
=
~ = |
.
|
\
|
|
|
.
|
\
|
=
|
.
|
\
|
=
|
.
|
\
|
=
10
0
10
10
10
10
5
2
1
10
) 10 (
25 . 0
1024
252
2
1
5
10
) 5 , 5 (
. 3
2
1
) (
. 2
2
1
) (
. 1
d
d
d os lanzamient en T E
T H P
HHHHHHHHHH P
HHTHTTHTTH P
. (Anonimo,2005).
Para ver los resultados planteados del problema anterior planteado en el Anexo 1.
En sntesis podemos decir que estos modelos HMC estn orientados a la suma de
probabilidades consecutivas hablando de la posibilidad que un evento se repita
muchas veces y esto afecte al problema, adems de no saber los eventos futuros, pero
hay que tener en cuenta que los problemas reales hay ms de dos posibilidades o cara
o sello, en la vida real esto no se da tan sencillamente por lo tanto hay frmulas y
tcnicas para determinar el resultado cuando esto se derive a un nivel ms complejo.
De nuevo citando a la ip annima vemos otro caso esta vez ms aleatorio:
Una persona est en un cuarto, de acuerdo a un procedimiento aleatorio, elige una
urna inicial; de esta urna, una pelota es seleccionada al azar, y su color es registrado
como una observacin. La pelota entonces se reemplaza en la urna de la que fue
seleccionada. Se escoge una nueva urna de acuerdo al proceso aleatorio, y el proceso
de seleccin de pelota se repite, de esta forma se genera una secuencia de
observaciones finitas de colores, la cual podramos modelar como la salida observable
de una HMM.
Debido a que los estados se encuentran ocultos, para muchas aplicaciones prcticas
existe algn significado relacionado a los estados o conjuntos de estados del modelo.
En el modelo de la urna y las pelotas, cada estado corresponde a las urnas.
Generalmente, los estados estn interconectados de tal forma que cualquier estado
puede alcanzar a otro; como veremos, existen una gran cantidad de interconexiones
entre estados de inters y esto se puede trasladar a aplicaciones de reconocimiento de
voz. Se etiquetan los estados individuales como {1,2,....,N}, y denotan el estado al
tiempo t como q
t
. (Anonimo,2005).
Vase el anexo 2 para entender el caso anterior.
El primer paso es estimar los estados, luego procederemos diversas herramientas que
nos ayudaran a definir las probabilidades futuras estas son: las ecuaciones foward-
Back,el algoritmo de Viterbi,para pasar a la estimacin de parmetros y al algoritmo de
Braum-Viterbi un hibrido. Estos temas son muy variados y cada uno tiene una
conceptualizacin compleja por lo cual solo nos propondremos un alcance sencillo
para este caso.
Pasos para estimar los estados
Los smbolos de observacin corresponden a la salida fsica del sistema que est
siendo modelado. Para el caso del experimento con las monedas son la cara y la cruz.
Para el modelo de la urna con las pelotas son los colores de las pelotas seleccionadas
de las urnas. Se denotan los smbolos individuales como:
V={v1,v2,.,vm}
La distribucin de probabilidad de cada estado de transicin es A={a
ij
}, donde a
ij
se
define como se muestra en la ecuacin.
| | N j i i q j q P a
t t ij
s s = = =
+
, 1 , |
1
para el caso especial en el cual un estado puede alcanzar a otro estado en un paso
sencillo, tenemos
0 >
ij
a
para todos los i, j. Para otros tipos de HMM, podramos tener
0 =
ii
a
La observacin de los smbolos de la distribucin de probabilidad,
( ) { } k b B
j
=
en la cual
) (k b
j
se define por la ecuacin, donde se definen los smbolos de distribucin en el estado j,
j=1,2,...,N.
( ) | | , 1 , | M k j q v o P k b
t k t j
s s = = =
Distribucin del estado inicial (t)
La distribucin del estado inicial la cual est definida por la ecuacin
{ }
i
t t =
| | N i i q P
i
s s = = 1 ,
1
t
se puede observar que un modelo de un HMM requiere la especificacin de dos
parmetros para l nmero de estados (N) y nmero de diferentes observaciones de
cada smbolo por estado (M), la especificacin de los smbolos de observacin, y la
especificacin de los tres estados de probabilidad medidos A, B y
Por conveniencia, usamos la notacin compacta
( ) t , , B A =
para indicar el conjunto de parmetros completos del modelo. Este conjunto de
parmetros, por supuesto, definen una medida de probabilidad para O, por ejemplo,
( ) | O P
Dados los valores apropiados de N, M, A, B y t
el HMM puede ser usado como un generador para dar una secuencia de observacin
( )
T
o o o O
2 1
=
en la cual cada observacin O
t
es una de los smbolos de V, y T es el nmero de
observaciones en la secuencia como sigue:
1. Selecciona un estado inicial
i q =
1
de acuerdo a la distribucin de estado inicial
2. Establecemos
1 = t
3. Seleccionamos
k t
v o =
de acuerdo al smbolo de distribucin de probabilidad en estado i, por ejemplo b,(k)
La transicin a un nuevo estado
j q
t
=
+1
de acuerdo a la distribucin de probabilidad del
estado de transicin par el estado i por ejemplo
ij
a
4. Establecer t=t+1 regresar al paso 3 si t <T ; de otra forma termina el procedimiento
(Anonimo,2005).
Finalmente en los anexos se muestra una tabla donde se presenta la secuencia de estados y
observaciones obtenidas de las diapositivas
Segn Anonimo(2005)Este procedimiento se puede usar tanto para un generador de observaciones
como para un modelo de simulacin de una secuencia de observacin puesto que se genera por una
hmn apropiada
Aplicabilidad
Segn un tutorial de la universidad de Brown (1998) traducido al espaol el artculo
indica que este modelo esta aplicado al reconocimiento de formas temporales, como
reconocimiento de habla o bioinformtica por la cantidad inmensa de posibilidades
que estos presentan, tambin para algunos casos orientados a la fontica.
Vase el anexo 2 por ejemplo
Glosario
Estocstico=aquello cuyo comportamiento es intrnsecamente no determinista
Intrnseco =Un termino para designar lo que corresponde un objeto por razn de su
naturaleza y no por su relacin con otro
Referencias bibliogrficas:
Ferragut, A.Modelos Markovianos, (Agosto de 2004). Escondidos Monografa de
tratamiento estadstico de seales Curso 2003http://www.fing.edu.uy]
Disponible en
http://www.fing.edu.uy/iie/ense/asign/tes/materiales/monografias/MonografiaModel
osMarkovianosEscondidos_%20AndresFerragut.pdf
Brown Computer Science, (1998, 14 de Septiembre). Hidden markov model
[cs.brown.edu]
Recuperado de:
http://cs.brown.edu/research/ai/dynamics/tutorial/Documents/HiddenMarkovModels
.html
Carrere, N. (2007). Cadenas de markov ocultas [diapositivas de PowerPoint].
Recuperado de: http://www.alumnos.inf.utfsm.cl/~ntroncos/files/publish/hmm.pdf
Annimo (2005). Cadenas ocultas de Markov [diapositivas de PowerPoint]. Recuperado
de:
http://148.204.64.201/paginas%20anexas/voz/CADENAS%20OCULTAS%20DE%20MAR
KOV.ppt
Anexos
Obtenido de
:http://148.204.64.201/paginas%20anexas/voz/CADENAS%20OCULTAS%20DE%20MA
RKOV.ppt
Obtenido de
:http://148.204.64.201/paginas%20anexas/voz/CADENAS%20OCULTAS%20DE%20MA
RKOV.ppt