Está en la página 1de 31

INDICE

I. II. III. IV. PRESENTACION INTRODUCCION MARCO TEORICO - CADENAS DE MARKOV CADENAS OCULTAS DE MARKOV - ORIGEN DE LAS MOM - DEFINICION FORMAL - ELEMENTOS DE LOS MOM - TIPOS DE MOM - ALGORITMOS UTILIZADOS - UTILIDAD - VENTAJAS Y DESVENTAJAS - SIMILITUDES Y DIFERENCIAS RESPECTO A CADENAS FINITAS - DONDE SE UTILIZAN? - PRINCIPALES AREAS DE APLICACIN CONCLUSIONES BIBLIOGRAFIA

V. VI.

MODELOS OCULTOS DE MARKOV

I.

PRESENTACION

En el marco de la implementacin de un nuevo modelo educativo universitario, el cual se enfoca en un proceso de enseanza y aprendizaje innovador, en donde los estudiantes basan su formacin y alcance de competencias en la elaboracin de proyectos de curso, investigacin cientfica, tanto documental como experimental y exploratoria; se elabor el presente trabajo de investigacin, que describe los Modelos Ocultos de Markov.

Teniendo en cuenta todos los conceptos y lo aprendido en clase, hemos investigado y desarrollado nuestro trabajo, con el objetivo principal de proporcionar a los estudiantes los conocimientos bsicos y las aplicaciones ms comunes de las Cadenas Ocultas de Markov que comprende el curso de Investigacin de Operaciones II. Si nuestro trabajo fomenta un entusiasmo genuino por esta materia,

entonces consideraremos que nuestro esfuerzo habr tenido xito.

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

II.

INTRODUCCION

A veces nos interesa saber cmo cambia una variable aleatoria a travs del tiempo. Por ejemplo, desearamos conocer cmo evoluciona el precio de las acciones de una empresa en el mercado a travs del tiempo. Como hemos podido aprender se han explicado unos modelos de Markov en los cuales el estado actual es directamente observable, lo cual limita dichos modelos en muchos problemas.

El estudio de cmo evoluciona una variable aleatoria incluye el concepto de procesos estocsticos. Las cadenas de Markov se han aplicado en reas tales como educacin, mercadotecnia, servicios de salud, finanzas, contabilidad y produccin. Por ello, podemos considerarlas como una herramienta muy importante para la ingeniera industrial. El modelo oculto de Markov extiende el modelo de Markov de manera que el estado del modelo no es directamente observable, en vez de eso se puede observar una cierta salida que depende del estado en que se encuentre el modelo, de esta forma el modelo se convierte en sistema estocstico doble en el que existe un proceso estocstico oculto (de ah el oculto) que solo puede ser observado indirectamente. Podemos decir, de manera general, que los modelos de Markov ocultos son modelos matemticos que capturan informacin oculta en secuencias de smbolos u observaciones. Los modelos de Markov ocultos, o simplemente los modelos de Markov, nos ayudan a responder a las siguientes preguntas: dada una secuencia de ADN pertenece a una familia particular? o asumiendo que la secuencia pertenece a una determinada familia, qu podemos saber de su estructura interna?

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

III.

MARCO TEORICO

CADENAS DE MARKOV
Proceso Estocstico
Un proceso Estocstico es una coleccin indexada de variables Xt que representan modelos de probabilidad de procesos que evolucionan en el tiempo de forma probabilstica. Estos procesos estn relacionados al conjunto de valores que pueden tomar el sub- ndice t de un conjunto T determinado. Pueden ser de dos tipos: de tiempo discreto o tiempo continuo. Esto se deduce del conjunto T del que se tomaran los valores del intervalo de tiempo en donde la variable Xt flucta. Estos procesos son de utilidad pues nos permiten observar, controlar y modelar el comportamiento de un sistema cualquiera en operacin durante periodos de tiempos, como por ejemplo: Nivel de agua de un rial al final del da t. Cantidad de mquinas reparadas al inicio de la semana t. Demanda de un potencial cliente en el mes t.

Nuestro sistema de inters de estudio en el periodo t debe encontrarse en situacin o con duracin determinada llamada Estado, que viene a ser una categora excluyente de todas las posibles que podra tomar el sistema. Entonces, dado un conjunto de estados 0, 1, 2, , M, la variable aleatoria Xt representara el Estado del Sistema en el tiempo t, pues si Rango son los M estados. De esta forma, el sistema se evala y se observa en estos puntos del tiempo determinados. Por esto, todos los Procesos Estocsticos, denotados como una familia de variables aleatorias, referidos en la ecuacin (1), aportan informacin valiosa acerca del comportamiento sistema en anlisis y su evolucin fsica a travs del tiempo t: Xt = {X0, X1, X2, , XM} (1) Debido a esta caracterstica particular de que el sistema se evalu en funcin a estados cambiantes en t, es que a este clase de procesos se les llama Procesos

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV Estocsticos de Tiempo Discreto con Espacio de Estado Finito, una de las caractersticas de las Cadenas de Markov.

Modelos Markovianos
Sea un evento de inters A definido en un espacio muestral , que contiene un numero de eventos finitos, llmense estados, si se hace referencia al experimento de Bernoulli , donde se hace una extraccin al azar y con reposicin, se deduce que la probabilidad de un xito a lo largo de todo un camino muestral M = {m1, m2, ..., mn } compuesto por n ensayos, es constante e igual a p, pues se trata de ensayos independientes de las extracciones. Esta afirmacin nos permite concluir que si tenemos un numero finito de estados con una probabilidad p constante, entonces se debera cumplir con la propiedad (2) acerca de la naturaleza de la distribucin conjunta de Xt = {X0 , X1 , X2 , ..., XM }:
P (Xt+1= j/X0= k0 , X1 = k1 , ..., Xt1 = kt1 , Xt = i) = P (Xt+1 = j/Xt = i),

(2)

t = 0,1,2,... M sucesiones i, j, k0 , k1 , ..., kt1 A la expresin (2) se le llama Propiedad markoviana y establece que la probabilidad condicional de cualquier suceso en cualquier instante futuro dada la ocurrencia de cualquier suceso pasado y el estado actual es independiente de lo acontecido en el pasado y ms bien solo depende del estado actual del sistema analizado. Entonces, se afirma que un Proceso Estocstico Xt , t=0,1,..., es una Cadena de Markov si posee la propiedad markoviana. En un modelo markoviano, a las probabilidades condicionales P(Xt+1 = j/Xt = i), se les conocen como probabilidades de transicin de un paso, o sea de un solo salto en el tiempo t, discreto, dentro del Rango del camino muestral de estados posibles. Si i, j se cumple que P (Xt+1 = j/Xt = 1) = P (X1 = j/X0 = i), entonces se puede afirmar que las probabilidades de transicin, antes mencionadas, de un paso, son Estacionarias.

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV Esto quiere decir que dichas probabilidades no cambian mientras v a r i a el tiempo. Por lo tanto, se deduce que i, j, t y n (n = 1, 2, ,...), la ecuacin (3), llamada probabilidad de transicin de n pasos, se ver representada por pij = P(Xt+n = j / Xt = 1)

P(Xt+n = j/Xt = 1) = P (Xn = j/X0 = i)

(3)

Segn la definicin de probabilidad, y como el sistema se mueve necesariamente a algn estado, se deben cumplir los enunciados (4) y (5):

pij (n) 0 i y j; n = 0, 1, 2, ...

(4)

(5) i, n = 0, 1, 2, ... La ecuacin (6), representa la Matriz de Transicin de n pasos, que se vuelve simple cuando n = 1 y representa todas las probabilidades de moverse de un estado inicial i-esimo de las filas hacia un estado j-esimo de las columnas, donde se asume que ya se conoce o se pueden conocer las probabilidades iniciales P(X0 = i), i.

En un Diagrama de Estados, cada nodo representa a un elemento del espacio muestral (Estado), cada arco dirigido, a la probabilidad de transicin pij (desde i a j) asociada al par de estados que conecta (i, j). Un ejemplo del Diagrama se puede

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV observar en la Figura

Clasificacin de los Estados Markovianos


Un estado se define como transitorio si, luego de haber entrado en este estado, el sistema nunca regresar aa el. Por lo tanto, la ecuacin (7) es el requisito de transitoriedad j (j i) / p(n) ij > p(n) ji = 0 (7)

Un estado se define como recurrente si, luego de haber entrado en este estado, el sistema definitivamente regresar aa el. Por lo tanto debe cumplir con la ecuacin (8): p(n) ij p(n) ji > 0 (8)

Un tipo especial de estado recurrente es el estado Absorbente: un estado se define como absorbente si, luego de haber entrado en este estado, el sistema siempre regresara a el, o en otras palabras, nunca saldr de el. Por lo tanto, la ecuacin (9) es el requisito de Estado Absorbente.

pij = 1

(9)

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

Cadenas de Markov Absorbentes DEFINICIN:


En lo que respecta a estos tipos de Cadenas, no tienen un Largo Plazo, o mejor dicho, divergen en el largo plazo. Esto quiere decir que no convergen a una matriz de igual filas, sino a convergen por filas pares e impares, tpico comportamiento en donde solo podemos calculas el tiempo esperado o promedio hasta caer en un estado adsorbente o la probabilidad de caer en cualquier estado absorbente.

Este tipo de matriz nos servir para evaluar no las ventas, sino las transiciones de consumo entre cliente y cliente.

PROPIEDADES PRINCIPALES
Estas cadenas cuentan con dos propiedades fundamentales, una relacionada con el tiempo promedio hasta caer en un estado absorbente y la otra, con la Probabilidad de caer en un estado absorbente: T = (I-Q)-1 Pi = (I-Q)-1 . R Para poder calcular dichos indicadores, primero la matriz de Probabilidades de transicin deber estar ordenada segn la forma de la figura, donde la submatriz Q, representa los estados no absorbentes, la submatriz R a los absorbentes, la submatriz 0 a la matriz de ceros y la submatriz I a la matriz identidad.

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

IV. CADENAS OCULTAS DE MARKOV


ORIGENES DE LOS MOM
La historia de los MOM se remonta a los aos cincuenta del siglo pasado, cuando un grupo de investigadores estaban tratando el problema de caracterizar procesos estocsticos para los cuales no contaban con suficientes observaciones. Surgi entonces la idea que implicaba modelar un proceso estocstico particular como un proceso estocstico doble, en el cual las realizaciones de un primer proceso (llamado el proceso oculto), daban origen a un segundo proceso (llamado el proceso observado). Los dos procesos se lograban caracterizar usando slo el que se poda observar. Del tratamiento de este problema surgi el algoritmo de identificacin que se conoce como algoritmo de Mxima Estimacin, ME. Luego, en los primeros aos de la dcada de mil novecientos setenta se desarroll un caso especial del algoritmo de ME, para estimar los parmetros de los MOM, el F-B (for- ward-backward) tambin llamado algoritmo de reestimacin Baum-Welch, en honor a sus creadores.

DEFINICION FORMAL
Un Modelo Oculto de Markov (HMM del ingl es Hidden Markov Model) es una 5-tupla (N, M, A, B, ) donde N representa el Numero de Estados, relacionados con su conjunto S; M, el nu mero de S mbolos observables, representados con su conjunto O; A, las Probabilidades aij de Transici on; B, la Probabilidad bij de Observar Ok en el estado Sj; y , el Vector de Probabilidades iniciales de cada estado.
S = {S1 , ..., SN } O = {O1 , ..., OM } A = aij = P (qt+1 = Sj |qt = Si ) B = bj (k) = P (Ok |qt = Sj ) = i = P (q1 = Si )

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

La secuencia de observables se denota como un conjunto O = (O1 , O2 , ..., OT). Todos los parmetros mencionados y sus propiedades entrelazadas se pueden observar ms a detalle en Figura, en donde se puede apreciar 5-tupla markoviana oculta.

En resumen, las Cadenas de Markov Ocultas son modelos en los que se rastrean y encuentran algunos estados que, para la Cadena de Markov simples, eran ocultos. Esto hace que el modelo oculto tenga una gran eficiencia en la estimacin sus probabilidades y un gran alcance. Dichos estados para este tipo de Cadena ya son importantes y se toman en cuenta en la matriz, dado que ahora en cada uno de dichos estados existe una probabilidad de que exista una observacin. Lo que se tiene ahora es un modelo doblemente estoc astico en el cual hay un proceso subyacente que est a oculto. Este proceso solo puede ser visto a trav es de las observaciones: esto es una Cadena Oculta de Markov.

Elementos de los MOM


Ahora, se definen formalmente todos los elementos que componen a un MOM. 1. El nmero de estados en el modelo N: Aunque los estados en los que se encuentra el sistema modelado se consideran ocultos, para muchas aplicaciones prcticas existe alguna significacin fsica asociada a los estados del sistema. Generalmente los estados estn interconectados de tal manera que cualquier estado puede ser alcanzado desde cualquier otro. Los estados sern denotados como

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV S= {S1 , S2 , . . . , SN }, y el estado en el instante t como qt . 2. El nmero de smbolos de observacin distintos por estado M: Es el alfabeto de tamao discreto del modelo. Los smbolos corresponden usualmente a la salida fsica u observable del sistema modelado. Se denotan los smbolos como V = {v1 , v2 , . . . , vM }. 3. La distribucin de probabilidad de transicin: A = {aij }: Usualmente representada por una matriz en donde: aij = P (qt+1 = Sj |qt = Si ) Para el caso especial en el que cada estado puede llevar a cualquier otro estado en una sola transicin, aij > 0 para todo i, j. En otros tipos de MOM, se tiene que

aij = 0 para uno o ms pares (i, j). 4. La distribucin de probabilidad de observacin de smbolos: B = {bj (k)}: Esta distribucin de probabilidad representa la probabilidad de observar el smbolo k estando en el estado j donde: bj (k) = P (vk ent|qt = Sj ), 1 j N, 1 k M 5. La distribucin inicial : Representa el estado inicial del sistema modelado, donde: i = P (q1 = Si ), 1 i N Dados valores apropiados para N, M, A, B y , el MOM puede ser utilizado como el generador de una secuencia de observaciones O = O1 O2 OT (Donde cada observacin Ot es uno de los smbolos del conjunto V, y T es el nmero de observaciones en la secuencia) de acuerdo al siguiente algoritmo: 1. Seleccionar un estado inicial q1 = Si de acuerdo con la distribucin inicial . 2. Establecer el instante de tiempo t = 1. 3. Seleccionar Ot = vk de acuerdo a la distribucin de probabilidad de

observacin de smbolos en el estado Si, es decir, bi (k).

10

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV 4. Hacer una transicin al nuevo estado qt+1 = Sj de acuerdo a la distribucin de probabilidad para el estado Si , es decir, aij . 5. Establecer el intervalo de tiempo t = t + 1; regresar al paso 3 si t < T; de otro modo terminar el proceso. Con el procedimiento anterior, se podran generar secuencias de observaciones correspondientes al modelo especificado por los parmetros N, M, A, B y . Por conveniencia, se representan los parmetros de un MOM a travs de la siguiente notacin: = (A, B, ) Se puede pensar en los modelos ocultos de Markov como autmatas finitos donde las transiciones son determinadas por las matrices A y B, los estados por el conjunto S y el alfabeto por el conjunto V.

NOTACION DE LOS ELEMENTOS DE UNA CADENA OCULTA DE MARKOV

11

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

Tipos de MOM
La siguiente clasificacin de los MOM, no se debe exclusivamente a alguna de sus caractersticas. Esto quiere decir, que los dos primeros tipos cuya clasificacin depende de los valores de las matrices de probabilidad de transicin, son excluyentes entre ellos pero no con el tercer tipo. As, podemos tener MOM que sean no ergdicos y autoregresivos o bien ergdicos y autoregresivos al mismo tiempo.

Ergdicos
Cuando un MOM tiene una matriz de probabilidad de transicin de estados completa (es decir, que no es cero para ningn aij ) se dice que el MOM es ergdico. En este tipo de MOM cualquier estado puede ser visitado nuevamente con probabilidad 1 y estas visitas no deben tomar necesariamente lugar en intervalos de tiempo peridicos.

Figura: MOM ergdico con N = 4

No Ergdicos
En los casos en los que las matrices de transicin del MOM pueden tener algunos valores 0, se dice que no son ergdicos. Por ejemplo, si se tiene una matriz triangular superior. A estos modelos se les conoce tambin como modelos

12

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV izquierda-derecha, pues la secuencia de estados producida por la secuencia de observaciones siempre deber proceder desde el estado ms a la izquierda, hasta el que est ms a la derecha. Estos MOM imponen un orden temporal al MOM, pues los estados con nmero menor, generan observaciones que ocurrieron antes que las generadas por los estados con ndices mayores.

Figura: MOM no ergdico con matriz A triangular superior y N = 4

Autoregresivos
Los MOM autoregresivos, tienen casos especiales del parmetro B. Cuando los smbolos observables de un MOM son vectores continuos (no son un conjunto discreto como un alfabeto), la funcin de distribucin de probabilidad bj (k), es remplazada por la funcin continua bj (x), 1 j N donde bj (x)dx = probabilidad de que el vector de observacin O se encuentre entre x y x + dx.

ALGORITMOS MS UTILIZADOS Procedimiento Backward Forward


1.- Fundamentos
El algoritmo mostrado en el acercamiento directo al problema es de orden exponencial, debido a las bifurcaciones (Nfurcaciones en realidad) del sendero de estados. Podemos conseguir algo mejor si nos damos cuenta de que los mltiples caminos no slo se dividen en cada paso, sino que tambin en cada paso confluyen. Esta idea se formaliza en el procedimiento Adelante Atrs (Backward Forward)

13

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV Se basa en dos hechos: i. Slo existe un nmero finito de estados: todos los caminos discurren, y desembocan necesariamente a cada paso en un estado de los posibles. ii. El verdadero inters reside en obtener la suma de la probabilidad de todos los caminos, y no en la probabilidad de un camino en concreto. Esto nos permitir olvidar el camino recorrido hasta un punto dado.

2- Variable hacia delante (Forward variable)


La variable hacia delante nos ayudar a calcular la suma de las probabilidades de todos los caminos. Se define como la probabilidad de que el modelo genere la salida hasta t t0 t 0 est en y que en el estado i. Formalmente,

Su misma definicin parece prometer que podremos calcularla iterativamente. Supongamos que tenemos un modelo con solo dos esta dos. De un modo intuitivo, si en el instante t llegamos a al estado j, hemos llegado ah porque venimos de algn otro estado en el instante anterior (t1). Cmo hayamos llegado a ese estado anterior nos importa poco, siempre y cuando conozcamos la probabilidad de haber ocupado el esta do anterior hace un instante. La probabilidad de haber estado en un estado cualquiera i en el instante t1 (dadas las observaciones pasadas) es precisamente . Luego la probabilidad de llegar al estado j en el instante t+1 vendr determinada por estas probabilidades y la matriz de transicin:

Ahora que conocemos la probabilidad de estar en el estado j en el instante t (dadas las observaciones pasadas), podemos calcular la probabilidad de estar en el estado j en el instante t y adems estar observando ot .

Que es por definicin manera recursiva.

, pudiendo por tanto calcularla para todo instante de

14

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

Si calculamos la variable hacia delante, en cada iteracin tendremos que hacer N*N productos (probabilidades de transicin), N*N sumas y N productos (probabilidad de generar la observacin) Luego el nuevo algoritmo requiere slo 2N(N1)T operaciones, es lineal con el tiempo y cuadrtico con el nmero de estados. Para el mismo ejemplo anterior, calcular dada una observacin con cien mues tras respecto a un modelo que tenga cinco estados necesitaramos en torno a 10 4 operaciones. Cmo se relaciona la verosimilitud con la variable hacia delante? Por definicin la variable hacia delante es la probabilidad de que dada la observaciones hasta t = t, nos encontremos en ese instante en el estado j. Si el instante considerado es el ltimo, la verosimilitud de la secuencia completa de observaciones respecto al modelo se reduce a la suma para todos los estados posibles de .

Con lo cual hemos resuelto el problema de un modo factible. Resumiendo el procedimiento hacia delante queda como:

15

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

3 Variable hacia detrs ( Backward variable).


La variable hacia detrs es la contrapartida de la variable hacia delante. Nos permite igual que la anterior calcular la verosimilitud res pecto a un modelo, aunque en este caso la aproximacin es distinta. Presentamos la variable hacia atrs no para resolver el problema que nos ocupa (para el cual bastara la variable hacia delante), sino porque ser necesaria la utilizacin de ambas en la resolucin de los problemas por venir. La variable hacia se define como la probabilidad de que las observaciones para para instantes posteriores a t hayan sido generadas por el modelo, si el modelo estaba en el estado i en el instante t . Formalmente,

Al igual que en el caso de la , podremos utilizar un algoritmo recursivo y de bajo coste para calcularla. Supongamos que estamos en el instante t en un estado i, e intentamos calcular la probabilidad de que el modelo, en el futuro, genere una secuencia de muestras. Esa no es sino la definicin de la variable hacia delante. Podemos plantearlo en dos partes: Primero calculamos la probabilidad de llegar a un estado cualquiera i en el a ij . Formalmente instante posterior (t+1), que no es otra que

16

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

Una vez en el estado j, la probabilidad de observar ot +1 ... oT podemos descomponerla en dos partes:

Si unimos las dos expresiones podemos calcular la probabilidad de que, estando en el estado i en el instante t, nos encontremos en un estado j en el . sta viene siguiente y en el futuro el modelo genere las observaciones dada por

Para obtener slo tenemos que tomar la marginal de esta probabilidad conjunta, o en otras palabras, sumar la expresin para todos los posibles estados j.

Esta expresin es la forma recursiva de calcular la variable hacia detrs. Para que al inicio del algoritmo (en el instante t = T1) la expresin devuelva un valor correcto, ha de utilizarse . La re presentacin grfica de un paso del algoritmo para un modelo con dos estados es la mostrada en la figura

17

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

El clculo de beta de nuevo requiere del orden de

N2T

operaciones, y tambin con ella se puede calcular la verosimilitud a travs de la expresin

Resumiendo el algoritmo:

18

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

Secuencia Optimal De Estados


La ruta mas probable en un HMM es til para el aprendizaje y para el alineamiento de secuencias con el modelo. La ruta mas probable q = (q1 q2 ... qT) para la secuencia de observacin O = (o1 o2 ... oT ) puede ser calculada utilizando el algoritmo de Viterbi.

la probabilidad asociada con la ruta mas probable a lo largo de un camino simple que toma en cuenta las primeras t observaciones y finaliza en el estado i. Por induccin se tiene que

Para conservar la secuencia de estados se define la variable y t (j). El procedimiento para encontrar la mejor secuencia de estados se establece as:

El algoritmo de Viterbi est basado en el mtodo de la programacin dinmica. La estructura de retculo implementa eficientemente los cmputos del algoritmo (Ver figura).

19

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

Figura Secuencia de operaciones necesarias para calcular las variables

VENTAJAS Y DESVENTAJAS DE LOS MOM


El modelo oculto de Markov posee ventajas y desventajas entre las cuales podemos observar:

Ventajas:
Usualmente un MOM arroja un MSA bueno. Es un mtodo fundamentado por la teora de la probabilidad. No se requiere de un orden en las secuencias. Las penalidades de insercin y delecin no son necesarias. Se puede utilizar informacin experimental.

20

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

Desventajas:
Se necesitan al menos 20 secuencias (si no ms) para poder acomodar la historia evolutiva. Para construir un modelo se debe tener una base de datos de genes antes.

UTILIDAD DE LOS MOM


Los sistemas del mundo real producen en general salidas o datos que se pueden tratar como seales. Dichas seales pueden ser de naturaleza discreta o de naturaleza continua. stas pueden ser estacionarias o no estacionarias segn varen o no sus propiedades estadsticas a travs del tiempo y pueden estar corrompidas o no por otras seales de su entorno. En ese sentido, existe el problema fundamental de crear modelos para esas seales con la finalidad de que a partir de stos se puedan describir tericamente, simular, controlar y hasta construir los procesos generadores de dichas seales. Los modelos de seales se clasifican en dos categoras: determinsticos y estocsticos. Los determinsticos, en general, explotan propiedades conocidas de las seales, mientras que en los estocsticos se intenta modelar solamente las propiedades estadsticas de la seal. Los MOM caen en esta ltima categora. Para fijar ideas respecto al uso de los MOM, se puede revisar el experimento siguiente: Considrese que en algn lugar de un saln hay un conjunto de cajas y bolas; y que en el saln hay un grupo de personas. Las personas se encuentran separadas del conjunto de las cajas y bolas, por una cortina, es decir, las personas no ven esos objetos. Supngase que hay un nmero N de cajas numeradas y que cada caja contiene un nmero considerable de bolas de colores. El proceso fsico para obtener las observaciones es como sigue: una persona, llammosla El Mago, entra al lugar donde estn los objetos mencionados y escoge una caja al azar, la caja inicial. De esta caja toma una bola tambin al azar y la muestra por encima de la cortina al grupo de personas; las personas anotan el color observado. El Mago vuelve a colocar la bola en la caja de donde fue extrada. Luego selecciona una nueva caja, de acuerdo al mismo proceso aleatorio con que seleccion la primera, y toma una bola tal como lo hizo antes, y la muestra al pblico. Las personas vuelven a anotar el color. Si se repite el procedimiento varias veces se tendr una secuencia finita de

21

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV observaciones de colores, que constituyen una realizacin del proceso observado. Aqu se puede notar que hay un proceso aleatorio oculto que da origen a ese proceso observado; ese proceso aleatorio oculto es el proceso aleatorio de la secuencia de cajas, es decir, la gente no sabe de qu caja o cajas provienen las bolas de colores, sin embargo, se dan cuenta que ocurre una realizacin al estilo: caja 1, caja 3, caja 6, caja 7, caja 1, ...., caja 4; que no pueden observar, pero que da origen a la realizacin observada de colores del tipo: azul, rojo, azul, verde, verde,...., rojo. Un MOM permite modelar este tipo de experimento partiendo de la secuencia de salidas observadas.

Similitudes Entre Las Cadenas De Markov Finitas Y Las Cadenas De Markov Ocultas
cadenas de Markov Para definir una cadena de Markov finita hace falta determinar por lo tanto los siguientes elementos: El nmero de estados en el modelo. La definicin de transicin. Una ley de probabilidad condicional. Tipos de cadenas ocultas Ergdicas Semiergdicas No Ergdicas Cclicas Cadenas ocultas de Markov Elementos que componen una cadena oculta de Markov: 1. El nmero de estados en el modelo N. 2. El nmero de smbolos de observacin distintos por estado M. 3. La distribucin de probabilidad de transicin. 4. La distribucin de probabilidad de observacin de smbolos. 5. la distribucin inicial. Tipos de cadenas ocultas Ergdicas No Ergdicas Auto regresivas

Elementos Que Definen Y Diferencian Una Cadena Oculta De Markov:


Los modelos ocultos de Markov son una funcin de densidad de probabilidad. Los modelos ocultos de Markov tienen dos mecanismos interrelacionados: Una cadena de Markov y un Conjunto de funciones aleatorias.

22

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

Los modelos ocultos de Markov, siempre estn en algn estado.

Los modelos ocultos de Markov cambian de estado de acuerdo a una matriz de transiciones.

El observador de un modelo oculto de Markov, slo ve el resultado de las funciones aleatorias.

Dnde Se Utilizan?
Los modelos ocultos de Markov son especialmente aplicados al reconocimiento de formas temporales, como el reconocimiento del habla, de gestos y de movimientos corporales, reconocimiento ptico de caracteres, de escritura manual, de gestos o bioinformtica, prediccin de regiones que codifican protenas dentro de genomas, modelado de familias de secuencias de protena o ADN relacionado, prediccin de elementos de estructura secundaria en secuencias primarias de protena, Criptoanlisis, Traduccin automtica, Seguimiento de partituras musicales, comportamiento del cliente, etc.

Principales reas De Aplicacin


Los modelos ocultos de Markov han tenido un amplio uso en la deteccin de anomalas. A continuacin se mencionan algunas aplicaciones de los modelos ocultos de Markov ms citadas en la literatura, divididas por rea de aplicacin.

Tratamiento digital del habla Es claro, debido a la cantidad de publicaciones al respecto, que los MOM deben su fama esta aplicacin. Una buena revisin de este tema es: La mayor parte de los sistemas comerciales de tratamiento del habla incluyen algn tipo de MOM.

23

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

Biociencias Clasificacin automtica de electrocardiogramas Anlisis de arritmia cardiaca Representacin de la actividad neuronal de las cortezas visuales de simios usando diferentes estmulos visuales Restauracin de las grabaciones de corrientes fluyendo desde un solo canal de iones en una membrana celular Modelado de series de tiempo de la cantidad de ataques epilpticos Modelado de la secuencia de la cantidad de movimiento de un feto de cordero in utero a travs de ultrasonido

Modelado estadstico, bsquedas en bases de datos y alineacin de mltiples secuencias de estructuras de protenas Modelado y prediccin de unidades transcripcionales de genes de Eschericia coli Deteccin de segmentos homogneos en secuencias de DNA Aprendizaje de filogenias no singulares Modelo mutagentico longitudinal de la secuencia HIV Anlisis a gran escala de genoma Aplicaciones en la biologa computacional Prediccin gentica en DNA

Epidemiologa y Biomtrica

Modelado de la secuencia de comportamiento de animales bajo observacin Anlisis de series de tiempo de homicidios relacionados con disparos de armas de fuego y suicidios en Ciudad del Cabo, Africa del Sur, as como de series de tiempo de nacimientos.

24

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

Tratamiento de imgenes

Clasificacin de texturas Tcnicas de representacin de formas Clasificacin de vehculos militares en secuencias de video Reconocimiento automtico de palabras clave en documentos pobremente impresos Clasificacin de imgenes Anlisis de imgenes Reconocimiento de objetos en tercera dimensin Reconocimiento de gestos Extraccin de informacin importante de partidos de bisbol Anlisis de la estructura de un video de ftbol soccer Reconocimiento dinmico de expresiones faciales Clasificacin automtica de huellas dactilares

Tratamiento de seales sonoras

Clasificacin bajo el agua de seales acsticas Modelo del comportamiento de objetivos y algoritmos de rastreo Segmentacin musical acstica Clasificacin de ruido ambiental Reconocimiento automtico de elementos de canto de aves Clasificacin de msica folclrica Extraccin de sonidos bien articulados con alta confianza Clasificacin de patrones musicales

25

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV Deteccin y monitoreo automtico de fallas

Deteccin en-lnea de fallas en los mecanismos de orientacin de la red espacial profunda de la NASA Monitoreo de la evolucin del desgaste de herramientas mecnicas Inspeccin y mantenimiento de sistemas en deterioro Deteccin de fallas en redes de comunicacin tolerantes a fallas

Comunicacin

Estimacin de parmetros y deteccin de smbolos en canales ruidosos Rastreo de frecuencias de lneas y objetivos Demodulacin adaptativa de seales QAM en canales ruidosos Ecualizacin ciega y semi-ciega de seales Caracterizacin de errores de rfaga en canales de radio de interiores Filtrado Universal Modelado de la propagacin de canal satelital

Informtica

Deteccin de intrusos Modelado de interaccin humano / computadora Clasificacin del trfico de red Deteccin de ataques de red en varias etapas Tratamiento de la prdida de paquetes para voz sobre IP Codificacin Modelado del retraso en Internet

26

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV Anlisis no estacionario de series de tiempo

Modelado de datos de actividad planetaria geomagntica Modelado de series de tiempo de curvas y sismogramas Anlisis de la tasa real de crecimiento del producto interno bruto de Estados Unidos, en la post-guerra

Control y Optimizacin

Anlisis de problemas de control sensibles al riesgo

Climatologa

Modelar relaciones espacio-temporales entre precipitacin pluvial en una serie de sitios y patrones atmosfricos sinpticos Modelado de la persistencia hidroclimtica Segmentacin de series de tiempo hidrolgicas y ambientales

Econometra

Medida de la probabilidad del ciclo de punto de quiebre de un negocio Aplicaciones en la venta de bienes races Aplicaciones en las series de retorno diario Modelado de series de tiempo de retorno financieras Otros

Representacin de habilidades humanas para la tele-operacin del sistema robtico de una estacin espacial Reconocimiento visual del lenguaje de seas americano Modelado de epicentros de terremotos

27

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV Modelado de sistemas caticos Reconocimiento de tarjetas de negocios chinas Extraccin de informacin basada en mltiples plantillas Modelado del aprendizaje no paramtrico del movimiento humano Reconocimiento de actividades grupales

28

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

V.

CONCLUCIONES
Existen varias aplicaciones en las distintas ramas cientficas que nos dan a

entender la flexibilidad y potencialidades de estos modelos matemticos, que dada una data histrica representativa, pueden estimar probabilidades y con estas, extrapolar conclusiones a posteriori dentro de un marco de alta variabilidad y poco conocimiento de las variables cuantitativas.

Las Cadenas Ocultas de Markov presentan una mayor precisin en la

estimacin de probabilidades, pero requieren que dichos estados estn soportados por el contexto estable.

Las cadenas de markov nos sirven para averiguar datos estadsticos por cada cierto tiempo, lo cual permite pronosticar y realizarnos mejor como empresa y entidad empresarial Es bueno conocer el comportamiento del mercado antes de realizar algn estudio, es por eso que las cadenas de markov es ideal para un pre proyecto de investigacin, pues solo recoge datos estadsticos que ayudaran posteriormente en el desarrollo de una investigacin

Es importante saber el nmero de la muestra que hemos elegido y dentro de que mercado nos encontramos ya que las cadenas de markov solo puede ser eficaz segn la veracidad y claridad de los datos que propongamos.

29

INVESTIGACION DE OPERACIONES II

MODELOS OCULTOS DE MARKOV

VI. BIBLIOGRAFIA
PATIO ANTONIOLI, MIGUEL (2011). Aplicacin De Las Cadenas Ocultas De Markov Para La Preferencia De Los Consumidores En El Mercado Cervecero. Tesis de Bachiller en Ingeniera Industrial, Pontificia Universidad Catlica del Per. Modelos Ocultos de Markov. (en lnea). Disponible en: http://www.virtual.unal.edu.co/cursos/ingenieria/2001832/lecturas/hmm.pdf (2013, 26 de noviembre).

Navarrete Gutirrez, Tomas. Deteccin de anomalas en la carga de un procesador, utilizando modelos ocultos de Markov. Tesis de Maestra en Ciencias de la Computacin. Instituto Tecnolgico de Morelia. Mxico.

Maldonado, Luciano. (2012). Los Modelos Ocultos de Markov, MOM. Vol. 14. Universidad Rafael Belloso Chacin. Venezuela.

30

INVESTIGACION DE OPERACIONES II

También podría gustarte