Documentos de Académico
Documentos de Profesional
Documentos de Cultura
I. II. III. IV. PRESENTACION INTRODUCCION MARCO TEORICO - CADENAS DE MARKOV CADENAS OCULTAS DE MARKOV - ORIGEN DE LAS MOM - DEFINICION FORMAL - ELEMENTOS DE LOS MOM - TIPOS DE MOM - ALGORITMOS UTILIZADOS - UTILIDAD - VENTAJAS Y DESVENTAJAS - SIMILITUDES Y DIFERENCIAS RESPECTO A CADENAS FINITAS - DONDE SE UTILIZAN? - PRINCIPALES AREAS DE APLICACIN CONCLUSIONES BIBLIOGRAFIA
V. VI.
I.
PRESENTACION
En el marco de la implementacin de un nuevo modelo educativo universitario, el cual se enfoca en un proceso de enseanza y aprendizaje innovador, en donde los estudiantes basan su formacin y alcance de competencias en la elaboracin de proyectos de curso, investigacin cientfica, tanto documental como experimental y exploratoria; se elabor el presente trabajo de investigacin, que describe los Modelos Ocultos de Markov.
Teniendo en cuenta todos los conceptos y lo aprendido en clase, hemos investigado y desarrollado nuestro trabajo, con el objetivo principal de proporcionar a los estudiantes los conocimientos bsicos y las aplicaciones ms comunes de las Cadenas Ocultas de Markov que comprende el curso de Investigacin de Operaciones II. Si nuestro trabajo fomenta un entusiasmo genuino por esta materia,
INVESTIGACION DE OPERACIONES II
II.
INTRODUCCION
A veces nos interesa saber cmo cambia una variable aleatoria a travs del tiempo. Por ejemplo, desearamos conocer cmo evoluciona el precio de las acciones de una empresa en el mercado a travs del tiempo. Como hemos podido aprender se han explicado unos modelos de Markov en los cuales el estado actual es directamente observable, lo cual limita dichos modelos en muchos problemas.
El estudio de cmo evoluciona una variable aleatoria incluye el concepto de procesos estocsticos. Las cadenas de Markov se han aplicado en reas tales como educacin, mercadotecnia, servicios de salud, finanzas, contabilidad y produccin. Por ello, podemos considerarlas como una herramienta muy importante para la ingeniera industrial. El modelo oculto de Markov extiende el modelo de Markov de manera que el estado del modelo no es directamente observable, en vez de eso se puede observar una cierta salida que depende del estado en que se encuentre el modelo, de esta forma el modelo se convierte en sistema estocstico doble en el que existe un proceso estocstico oculto (de ah el oculto) que solo puede ser observado indirectamente. Podemos decir, de manera general, que los modelos de Markov ocultos son modelos matemticos que capturan informacin oculta en secuencias de smbolos u observaciones. Los modelos de Markov ocultos, o simplemente los modelos de Markov, nos ayudan a responder a las siguientes preguntas: dada una secuencia de ADN pertenece a una familia particular? o asumiendo que la secuencia pertenece a una determinada familia, qu podemos saber de su estructura interna?
INVESTIGACION DE OPERACIONES II
III.
MARCO TEORICO
CADENAS DE MARKOV
Proceso Estocstico
Un proceso Estocstico es una coleccin indexada de variables Xt que representan modelos de probabilidad de procesos que evolucionan en el tiempo de forma probabilstica. Estos procesos estn relacionados al conjunto de valores que pueden tomar el sub- ndice t de un conjunto T determinado. Pueden ser de dos tipos: de tiempo discreto o tiempo continuo. Esto se deduce del conjunto T del que se tomaran los valores del intervalo de tiempo en donde la variable Xt flucta. Estos procesos son de utilidad pues nos permiten observar, controlar y modelar el comportamiento de un sistema cualquiera en operacin durante periodos de tiempos, como por ejemplo: Nivel de agua de un rial al final del da t. Cantidad de mquinas reparadas al inicio de la semana t. Demanda de un potencial cliente en el mes t.
Nuestro sistema de inters de estudio en el periodo t debe encontrarse en situacin o con duracin determinada llamada Estado, que viene a ser una categora excluyente de todas las posibles que podra tomar el sistema. Entonces, dado un conjunto de estados 0, 1, 2, , M, la variable aleatoria Xt representara el Estado del Sistema en el tiempo t, pues si Rango son los M estados. De esta forma, el sistema se evala y se observa en estos puntos del tiempo determinados. Por esto, todos los Procesos Estocsticos, denotados como una familia de variables aleatorias, referidos en la ecuacin (1), aportan informacin valiosa acerca del comportamiento sistema en anlisis y su evolucin fsica a travs del tiempo t: Xt = {X0, X1, X2, , XM} (1) Debido a esta caracterstica particular de que el sistema se evalu en funcin a estados cambiantes en t, es que a este clase de procesos se les llama Procesos
INVESTIGACION DE OPERACIONES II
MODELOS OCULTOS DE MARKOV Estocsticos de Tiempo Discreto con Espacio de Estado Finito, una de las caractersticas de las Cadenas de Markov.
Modelos Markovianos
Sea un evento de inters A definido en un espacio muestral , que contiene un numero de eventos finitos, llmense estados, si se hace referencia al experimento de Bernoulli , donde se hace una extraccin al azar y con reposicin, se deduce que la probabilidad de un xito a lo largo de todo un camino muestral M = {m1, m2, ..., mn } compuesto por n ensayos, es constante e igual a p, pues se trata de ensayos independientes de las extracciones. Esta afirmacin nos permite concluir que si tenemos un numero finito de estados con una probabilidad p constante, entonces se debera cumplir con la propiedad (2) acerca de la naturaleza de la distribucin conjunta de Xt = {X0 , X1 , X2 , ..., XM }:
P (Xt+1= j/X0= k0 , X1 = k1 , ..., Xt1 = kt1 , Xt = i) = P (Xt+1 = j/Xt = i),
(2)
t = 0,1,2,... M sucesiones i, j, k0 , k1 , ..., kt1 A la expresin (2) se le llama Propiedad markoviana y establece que la probabilidad condicional de cualquier suceso en cualquier instante futuro dada la ocurrencia de cualquier suceso pasado y el estado actual es independiente de lo acontecido en el pasado y ms bien solo depende del estado actual del sistema analizado. Entonces, se afirma que un Proceso Estocstico Xt , t=0,1,..., es una Cadena de Markov si posee la propiedad markoviana. En un modelo markoviano, a las probabilidades condicionales P(Xt+1 = j/Xt = i), se les conocen como probabilidades de transicin de un paso, o sea de un solo salto en el tiempo t, discreto, dentro del Rango del camino muestral de estados posibles. Si i, j se cumple que P (Xt+1 = j/Xt = 1) = P (X1 = j/X0 = i), entonces se puede afirmar que las probabilidades de transicin, antes mencionadas, de un paso, son Estacionarias.
INVESTIGACION DE OPERACIONES II
MODELOS OCULTOS DE MARKOV Esto quiere decir que dichas probabilidades no cambian mientras v a r i a el tiempo. Por lo tanto, se deduce que i, j, t y n (n = 1, 2, ,...), la ecuacin (3), llamada probabilidad de transicin de n pasos, se ver representada por pij = P(Xt+n = j / Xt = 1)
(3)
Segn la definicin de probabilidad, y como el sistema se mueve necesariamente a algn estado, se deben cumplir los enunciados (4) y (5):
(4)
(5) i, n = 0, 1, 2, ... La ecuacin (6), representa la Matriz de Transicin de n pasos, que se vuelve simple cuando n = 1 y representa todas las probabilidades de moverse de un estado inicial i-esimo de las filas hacia un estado j-esimo de las columnas, donde se asume que ya se conoce o se pueden conocer las probabilidades iniciales P(X0 = i), i.
En un Diagrama de Estados, cada nodo representa a un elemento del espacio muestral (Estado), cada arco dirigido, a la probabilidad de transicin pij (desde i a j) asociada al par de estados que conecta (i, j). Un ejemplo del Diagrama se puede
INVESTIGACION DE OPERACIONES II
Un estado se define como recurrente si, luego de haber entrado en este estado, el sistema definitivamente regresar aa el. Por lo tanto debe cumplir con la ecuacin (8): p(n) ij p(n) ji > 0 (8)
Un tipo especial de estado recurrente es el estado Absorbente: un estado se define como absorbente si, luego de haber entrado en este estado, el sistema siempre regresara a el, o en otras palabras, nunca saldr de el. Por lo tanto, la ecuacin (9) es el requisito de Estado Absorbente.
pij = 1
(9)
INVESTIGACION DE OPERACIONES II
Este tipo de matriz nos servir para evaluar no las ventas, sino las transiciones de consumo entre cliente y cliente.
PROPIEDADES PRINCIPALES
Estas cadenas cuentan con dos propiedades fundamentales, una relacionada con el tiempo promedio hasta caer en un estado absorbente y la otra, con la Probabilidad de caer en un estado absorbente: T = (I-Q)-1 Pi = (I-Q)-1 . R Para poder calcular dichos indicadores, primero la matriz de Probabilidades de transicin deber estar ordenada segn la forma de la figura, donde la submatriz Q, representa los estados no absorbentes, la submatriz R a los absorbentes, la submatriz 0 a la matriz de ceros y la submatriz I a la matriz identidad.
INVESTIGACION DE OPERACIONES II
DEFINICION FORMAL
Un Modelo Oculto de Markov (HMM del ingl es Hidden Markov Model) es una 5-tupla (N, M, A, B, ) donde N representa el Numero de Estados, relacionados con su conjunto S; M, el nu mero de S mbolos observables, representados con su conjunto O; A, las Probabilidades aij de Transici on; B, la Probabilidad bij de Observar Ok en el estado Sj; y , el Vector de Probabilidades iniciales de cada estado.
S = {S1 , ..., SN } O = {O1 , ..., OM } A = aij = P (qt+1 = Sj |qt = Si ) B = bj (k) = P (Ok |qt = Sj ) = i = P (q1 = Si )
INVESTIGACION DE OPERACIONES II
La secuencia de observables se denota como un conjunto O = (O1 , O2 , ..., OT). Todos los parmetros mencionados y sus propiedades entrelazadas se pueden observar ms a detalle en Figura, en donde se puede apreciar 5-tupla markoviana oculta.
En resumen, las Cadenas de Markov Ocultas son modelos en los que se rastrean y encuentran algunos estados que, para la Cadena de Markov simples, eran ocultos. Esto hace que el modelo oculto tenga una gran eficiencia en la estimacin sus probabilidades y un gran alcance. Dichos estados para este tipo de Cadena ya son importantes y se toman en cuenta en la matriz, dado que ahora en cada uno de dichos estados existe una probabilidad de que exista una observacin. Lo que se tiene ahora es un modelo doblemente estoc astico en el cual hay un proceso subyacente que est a oculto. Este proceso solo puede ser visto a trav es de las observaciones: esto es una Cadena Oculta de Markov.
INVESTIGACION DE OPERACIONES II
MODELOS OCULTOS DE MARKOV S= {S1 , S2 , . . . , SN }, y el estado en el instante t como qt . 2. El nmero de smbolos de observacin distintos por estado M: Es el alfabeto de tamao discreto del modelo. Los smbolos corresponden usualmente a la salida fsica u observable del sistema modelado. Se denotan los smbolos como V = {v1 , v2 , . . . , vM }. 3. La distribucin de probabilidad de transicin: A = {aij }: Usualmente representada por una matriz en donde: aij = P (qt+1 = Sj |qt = Si ) Para el caso especial en el que cada estado puede llevar a cualquier otro estado en una sola transicin, aij > 0 para todo i, j. En otros tipos de MOM, se tiene que
aij = 0 para uno o ms pares (i, j). 4. La distribucin de probabilidad de observacin de smbolos: B = {bj (k)}: Esta distribucin de probabilidad representa la probabilidad de observar el smbolo k estando en el estado j donde: bj (k) = P (vk ent|qt = Sj ), 1 j N, 1 k M 5. La distribucin inicial : Representa el estado inicial del sistema modelado, donde: i = P (q1 = Si ), 1 i N Dados valores apropiados para N, M, A, B y , el MOM puede ser utilizado como el generador de una secuencia de observaciones O = O1 O2 OT (Donde cada observacin Ot es uno de los smbolos del conjunto V, y T es el nmero de observaciones en la secuencia) de acuerdo al siguiente algoritmo: 1. Seleccionar un estado inicial q1 = Si de acuerdo con la distribucin inicial . 2. Establecer el instante de tiempo t = 1. 3. Seleccionar Ot = vk de acuerdo a la distribucin de probabilidad de
10
INVESTIGACION DE OPERACIONES II
MODELOS OCULTOS DE MARKOV 4. Hacer una transicin al nuevo estado qt+1 = Sj de acuerdo a la distribucin de probabilidad para el estado Si , es decir, aij . 5. Establecer el intervalo de tiempo t = t + 1; regresar al paso 3 si t < T; de otro modo terminar el proceso. Con el procedimiento anterior, se podran generar secuencias de observaciones correspondientes al modelo especificado por los parmetros N, M, A, B y . Por conveniencia, se representan los parmetros de un MOM a travs de la siguiente notacin: = (A, B, ) Se puede pensar en los modelos ocultos de Markov como autmatas finitos donde las transiciones son determinadas por las matrices A y B, los estados por el conjunto S y el alfabeto por el conjunto V.
11
INVESTIGACION DE OPERACIONES II
Tipos de MOM
La siguiente clasificacin de los MOM, no se debe exclusivamente a alguna de sus caractersticas. Esto quiere decir, que los dos primeros tipos cuya clasificacin depende de los valores de las matrices de probabilidad de transicin, son excluyentes entre ellos pero no con el tercer tipo. As, podemos tener MOM que sean no ergdicos y autoregresivos o bien ergdicos y autoregresivos al mismo tiempo.
Ergdicos
Cuando un MOM tiene una matriz de probabilidad de transicin de estados completa (es decir, que no es cero para ningn aij ) se dice que el MOM es ergdico. En este tipo de MOM cualquier estado puede ser visitado nuevamente con probabilidad 1 y estas visitas no deben tomar necesariamente lugar en intervalos de tiempo peridicos.
No Ergdicos
En los casos en los que las matrices de transicin del MOM pueden tener algunos valores 0, se dice que no son ergdicos. Por ejemplo, si se tiene una matriz triangular superior. A estos modelos se les conoce tambin como modelos
12
INVESTIGACION DE OPERACIONES II
MODELOS OCULTOS DE MARKOV izquierda-derecha, pues la secuencia de estados producida por la secuencia de observaciones siempre deber proceder desde el estado ms a la izquierda, hasta el que est ms a la derecha. Estos MOM imponen un orden temporal al MOM, pues los estados con nmero menor, generan observaciones que ocurrieron antes que las generadas por los estados con ndices mayores.
Autoregresivos
Los MOM autoregresivos, tienen casos especiales del parmetro B. Cuando los smbolos observables de un MOM son vectores continuos (no son un conjunto discreto como un alfabeto), la funcin de distribucin de probabilidad bj (k), es remplazada por la funcin continua bj (x), 1 j N donde bj (x)dx = probabilidad de que el vector de observacin O se encuentre entre x y x + dx.
13
INVESTIGACION DE OPERACIONES II
MODELOS OCULTOS DE MARKOV Se basa en dos hechos: i. Slo existe un nmero finito de estados: todos los caminos discurren, y desembocan necesariamente a cada paso en un estado de los posibles. ii. El verdadero inters reside en obtener la suma de la probabilidad de todos los caminos, y no en la probabilidad de un camino en concreto. Esto nos permitir olvidar el camino recorrido hasta un punto dado.
Su misma definicin parece prometer que podremos calcularla iterativamente. Supongamos que tenemos un modelo con solo dos esta dos. De un modo intuitivo, si en el instante t llegamos a al estado j, hemos llegado ah porque venimos de algn otro estado en el instante anterior (t1). Cmo hayamos llegado a ese estado anterior nos importa poco, siempre y cuando conozcamos la probabilidad de haber ocupado el esta do anterior hace un instante. La probabilidad de haber estado en un estado cualquiera i en el instante t1 (dadas las observaciones pasadas) es precisamente . Luego la probabilidad de llegar al estado j en el instante t+1 vendr determinada por estas probabilidades y la matriz de transicin:
Ahora que conocemos la probabilidad de estar en el estado j en el instante t (dadas las observaciones pasadas), podemos calcular la probabilidad de estar en el estado j en el instante t y adems estar observando ot .
14
INVESTIGACION DE OPERACIONES II
Si calculamos la variable hacia delante, en cada iteracin tendremos que hacer N*N productos (probabilidades de transicin), N*N sumas y N productos (probabilidad de generar la observacin) Luego el nuevo algoritmo requiere slo 2N(N1)T operaciones, es lineal con el tiempo y cuadrtico con el nmero de estados. Para el mismo ejemplo anterior, calcular dada una observacin con cien mues tras respecto a un modelo que tenga cinco estados necesitaramos en torno a 10 4 operaciones. Cmo se relaciona la verosimilitud con la variable hacia delante? Por definicin la variable hacia delante es la probabilidad de que dada la observaciones hasta t = t, nos encontremos en ese instante en el estado j. Si el instante considerado es el ltimo, la verosimilitud de la secuencia completa de observaciones respecto al modelo se reduce a la suma para todos los estados posibles de .
Con lo cual hemos resuelto el problema de un modo factible. Resumiendo el procedimiento hacia delante queda como:
15
INVESTIGACION DE OPERACIONES II
Al igual que en el caso de la , podremos utilizar un algoritmo recursivo y de bajo coste para calcularla. Supongamos que estamos en el instante t en un estado i, e intentamos calcular la probabilidad de que el modelo, en el futuro, genere una secuencia de muestras. Esa no es sino la definicin de la variable hacia delante. Podemos plantearlo en dos partes: Primero calculamos la probabilidad de llegar a un estado cualquiera i en el a ij . Formalmente instante posterior (t+1), que no es otra que
16
INVESTIGACION DE OPERACIONES II
Una vez en el estado j, la probabilidad de observar ot +1 ... oT podemos descomponerla en dos partes:
Si unimos las dos expresiones podemos calcular la probabilidad de que, estando en el estado i en el instante t, nos encontremos en un estado j en el . sta viene siguiente y en el futuro el modelo genere las observaciones dada por
Para obtener slo tenemos que tomar la marginal de esta probabilidad conjunta, o en otras palabras, sumar la expresin para todos los posibles estados j.
Esta expresin es la forma recursiva de calcular la variable hacia detrs. Para que al inicio del algoritmo (en el instante t = T1) la expresin devuelva un valor correcto, ha de utilizarse . La re presentacin grfica de un paso del algoritmo para un modelo con dos estados es la mostrada en la figura
17
INVESTIGACION DE OPERACIONES II
N2T
Resumiendo el algoritmo:
18
INVESTIGACION DE OPERACIONES II
la probabilidad asociada con la ruta mas probable a lo largo de un camino simple que toma en cuenta las primeras t observaciones y finaliza en el estado i. Por induccin se tiene que
Para conservar la secuencia de estados se define la variable y t (j). El procedimiento para encontrar la mejor secuencia de estados se establece as:
El algoritmo de Viterbi est basado en el mtodo de la programacin dinmica. La estructura de retculo implementa eficientemente los cmputos del algoritmo (Ver figura).
19
INVESTIGACION DE OPERACIONES II
Ventajas:
Usualmente un MOM arroja un MSA bueno. Es un mtodo fundamentado por la teora de la probabilidad. No se requiere de un orden en las secuencias. Las penalidades de insercin y delecin no son necesarias. Se puede utilizar informacin experimental.
20
INVESTIGACION DE OPERACIONES II
Desventajas:
Se necesitan al menos 20 secuencias (si no ms) para poder acomodar la historia evolutiva. Para construir un modelo se debe tener una base de datos de genes antes.
21
INVESTIGACION DE OPERACIONES II
MODELOS OCULTOS DE MARKOV observaciones de colores, que constituyen una realizacin del proceso observado. Aqu se puede notar que hay un proceso aleatorio oculto que da origen a ese proceso observado; ese proceso aleatorio oculto es el proceso aleatorio de la secuencia de cajas, es decir, la gente no sabe de qu caja o cajas provienen las bolas de colores, sin embargo, se dan cuenta que ocurre una realizacin al estilo: caja 1, caja 3, caja 6, caja 7, caja 1, ...., caja 4; que no pueden observar, pero que da origen a la realizacin observada de colores del tipo: azul, rojo, azul, verde, verde,...., rojo. Un MOM permite modelar este tipo de experimento partiendo de la secuencia de salidas observadas.
Similitudes Entre Las Cadenas De Markov Finitas Y Las Cadenas De Markov Ocultas
cadenas de Markov Para definir una cadena de Markov finita hace falta determinar por lo tanto los siguientes elementos: El nmero de estados en el modelo. La definicin de transicin. Una ley de probabilidad condicional. Tipos de cadenas ocultas Ergdicas Semiergdicas No Ergdicas Cclicas Cadenas ocultas de Markov Elementos que componen una cadena oculta de Markov: 1. El nmero de estados en el modelo N. 2. El nmero de smbolos de observacin distintos por estado M. 3. La distribucin de probabilidad de transicin. 4. La distribucin de probabilidad de observacin de smbolos. 5. la distribucin inicial. Tipos de cadenas ocultas Ergdicas No Ergdicas Auto regresivas
22
INVESTIGACION DE OPERACIONES II
Los modelos ocultos de Markov cambian de estado de acuerdo a una matriz de transiciones.
Dnde Se Utilizan?
Los modelos ocultos de Markov son especialmente aplicados al reconocimiento de formas temporales, como el reconocimiento del habla, de gestos y de movimientos corporales, reconocimiento ptico de caracteres, de escritura manual, de gestos o bioinformtica, prediccin de regiones que codifican protenas dentro de genomas, modelado de familias de secuencias de protena o ADN relacionado, prediccin de elementos de estructura secundaria en secuencias primarias de protena, Criptoanlisis, Traduccin automtica, Seguimiento de partituras musicales, comportamiento del cliente, etc.
Tratamiento digital del habla Es claro, debido a la cantidad de publicaciones al respecto, que los MOM deben su fama esta aplicacin. Una buena revisin de este tema es: La mayor parte de los sistemas comerciales de tratamiento del habla incluyen algn tipo de MOM.
23
INVESTIGACION DE OPERACIONES II
Biociencias Clasificacin automtica de electrocardiogramas Anlisis de arritmia cardiaca Representacin de la actividad neuronal de las cortezas visuales de simios usando diferentes estmulos visuales Restauracin de las grabaciones de corrientes fluyendo desde un solo canal de iones en una membrana celular Modelado de series de tiempo de la cantidad de ataques epilpticos Modelado de la secuencia de la cantidad de movimiento de un feto de cordero in utero a travs de ultrasonido
Modelado estadstico, bsquedas en bases de datos y alineacin de mltiples secuencias de estructuras de protenas Modelado y prediccin de unidades transcripcionales de genes de Eschericia coli Deteccin de segmentos homogneos en secuencias de DNA Aprendizaje de filogenias no singulares Modelo mutagentico longitudinal de la secuencia HIV Anlisis a gran escala de genoma Aplicaciones en la biologa computacional Prediccin gentica en DNA
Epidemiologa y Biomtrica
Modelado de la secuencia de comportamiento de animales bajo observacin Anlisis de series de tiempo de homicidios relacionados con disparos de armas de fuego y suicidios en Ciudad del Cabo, Africa del Sur, as como de series de tiempo de nacimientos.
24
INVESTIGACION DE OPERACIONES II
Tratamiento de imgenes
Clasificacin de texturas Tcnicas de representacin de formas Clasificacin de vehculos militares en secuencias de video Reconocimiento automtico de palabras clave en documentos pobremente impresos Clasificacin de imgenes Anlisis de imgenes Reconocimiento de objetos en tercera dimensin Reconocimiento de gestos Extraccin de informacin importante de partidos de bisbol Anlisis de la estructura de un video de ftbol soccer Reconocimiento dinmico de expresiones faciales Clasificacin automtica de huellas dactilares
Clasificacin bajo el agua de seales acsticas Modelo del comportamiento de objetivos y algoritmos de rastreo Segmentacin musical acstica Clasificacin de ruido ambiental Reconocimiento automtico de elementos de canto de aves Clasificacin de msica folclrica Extraccin de sonidos bien articulados con alta confianza Clasificacin de patrones musicales
25
INVESTIGACION DE OPERACIONES II
Deteccin en-lnea de fallas en los mecanismos de orientacin de la red espacial profunda de la NASA Monitoreo de la evolucin del desgaste de herramientas mecnicas Inspeccin y mantenimiento de sistemas en deterioro Deteccin de fallas en redes de comunicacin tolerantes a fallas
Comunicacin
Estimacin de parmetros y deteccin de smbolos en canales ruidosos Rastreo de frecuencias de lneas y objetivos Demodulacin adaptativa de seales QAM en canales ruidosos Ecualizacin ciega y semi-ciega de seales Caracterizacin de errores de rfaga en canales de radio de interiores Filtrado Universal Modelado de la propagacin de canal satelital
Informtica
Deteccin de intrusos Modelado de interaccin humano / computadora Clasificacin del trfico de red Deteccin de ataques de red en varias etapas Tratamiento de la prdida de paquetes para voz sobre IP Codificacin Modelado del retraso en Internet
26
INVESTIGACION DE OPERACIONES II
Modelado de datos de actividad planetaria geomagntica Modelado de series de tiempo de curvas y sismogramas Anlisis de la tasa real de crecimiento del producto interno bruto de Estados Unidos, en la post-guerra
Control y Optimizacin
Climatologa
Modelar relaciones espacio-temporales entre precipitacin pluvial en una serie de sitios y patrones atmosfricos sinpticos Modelado de la persistencia hidroclimtica Segmentacin de series de tiempo hidrolgicas y ambientales
Econometra
Medida de la probabilidad del ciclo de punto de quiebre de un negocio Aplicaciones en la venta de bienes races Aplicaciones en las series de retorno diario Modelado de series de tiempo de retorno financieras Otros
Representacin de habilidades humanas para la tele-operacin del sistema robtico de una estacin espacial Reconocimiento visual del lenguaje de seas americano Modelado de epicentros de terremotos
27
INVESTIGACION DE OPERACIONES II
MODELOS OCULTOS DE MARKOV Modelado de sistemas caticos Reconocimiento de tarjetas de negocios chinas Extraccin de informacin basada en mltiples plantillas Modelado del aprendizaje no paramtrico del movimiento humano Reconocimiento de actividades grupales
28
INVESTIGACION DE OPERACIONES II
V.
CONCLUCIONES
Existen varias aplicaciones en las distintas ramas cientficas que nos dan a
entender la flexibilidad y potencialidades de estos modelos matemticos, que dada una data histrica representativa, pueden estimar probabilidades y con estas, extrapolar conclusiones a posteriori dentro de un marco de alta variabilidad y poco conocimiento de las variables cuantitativas.
estimacin de probabilidades, pero requieren que dichos estados estn soportados por el contexto estable.
Las cadenas de markov nos sirven para averiguar datos estadsticos por cada cierto tiempo, lo cual permite pronosticar y realizarnos mejor como empresa y entidad empresarial Es bueno conocer el comportamiento del mercado antes de realizar algn estudio, es por eso que las cadenas de markov es ideal para un pre proyecto de investigacin, pues solo recoge datos estadsticos que ayudaran posteriormente en el desarrollo de una investigacin
Es importante saber el nmero de la muestra que hemos elegido y dentro de que mercado nos encontramos ya que las cadenas de markov solo puede ser eficaz segn la veracidad y claridad de los datos que propongamos.
29
INVESTIGACION DE OPERACIONES II
VI. BIBLIOGRAFIA
PATIO ANTONIOLI, MIGUEL (2011). Aplicacin De Las Cadenas Ocultas De Markov Para La Preferencia De Los Consumidores En El Mercado Cervecero. Tesis de Bachiller en Ingeniera Industrial, Pontificia Universidad Catlica del Per. Modelos Ocultos de Markov. (en lnea). Disponible en: http://www.virtual.unal.edu.co/cursos/ingenieria/2001832/lecturas/hmm.pdf (2013, 26 de noviembre).
Navarrete Gutirrez, Tomas. Deteccin de anomalas en la carga de un procesador, utilizando modelos ocultos de Markov. Tesis de Maestra en Ciencias de la Computacin. Instituto Tecnolgico de Morelia. Mxico.
Maldonado, Luciano. (2012). Los Modelos Ocultos de Markov, MOM. Vol. 14. Universidad Rafael Belloso Chacin. Venezuela.
30
INVESTIGACION DE OPERACIONES II